如何使用嵌套的for循环添加两个2d间距数组?

如何解决如何使用嵌套的for循环添加两个2d间距数组?

| 我是cuda的新手。我想将两个2d数组加到第三个数组中。 我使用以下代码:
cudaMallocPitch((void**)&device_a,&pitch,2*sizeof(int),2);
cudaMallocPitch((void**)&device_b,2);
cudaMallocPitch((void**)&device_c,2);
现在我的问题是我不想将这些数组用作扁平化的二维数组 我想要的所有在内核代码中的代码都是使用两个for循环并将结果放入第三个数组中,例如
__global__ void add(int *dev_a,int *dev_b,int* dec_c)
{
    for i=0;i<2;i++)
    { 
      for j=0;j<2;j++)
      {
        dev_c[i][j]=dev_a[i][j]+dev_b[i][j];
      }
    }
}
我如何在CUDA中做到这一点? 请告诉我如何以这种方式使用二维数组? 使用2d-array的内核调用应该是什么? 如果可能,请解释使用代码示例。     

解决方法

简短的答案是,您不能。 “ 2”函数完全按照其名称的含义工作,它分配了倾斜的线性内存,在此处选择的倾斜度对于GPU内存控制器和纹理硬件而言是最佳的。 如果要在内核中使用指针数组,则内核代码必须如下所示:
__global___ void add(int *dev_a[],int *dev_b[],int* dec_c[])
{
    for i=0;i<2;i++) { 
      for j=0;j<2;j++) {
        dev_c[i][j]=dev_a[i][j]+dev_b[i][j];
      }
    }
}
然后在主机端需要嵌套的“ 4”调用来构造指针数组并将其复制到设备内存中。对于您相当琐碎的2x2示例,分配单个数组的代码如下所示:
int ** h_a = (int **)malloc(2 * sizeof(int *));
cudaMalloc((void**)&h_a[0],2*sizeof(int));
cudaMalloc((void**)&h_a[1],2*sizeof(int));

int **d_a;
cudaMalloc((void ***)&d_a,2 * sizeof(int *));
cudaMemcpy(d_a,h_a,2*sizeof(int *),cudaMemcpyHostToDevice);
这样会将分配的设备指针数组保留在d_a中,然后将其传递给内核。 出于代码复杂性和性能的原因,您真的不想这样做,因为与使用线性内存的替代方法相比,在CUDA代码中使用指针数组既困难又慢。 为了说明在CUDA中使用指针数组是多么愚蠢,这是您的示例问题的完整工作示例,其中结合了以上两个想法:
#include <cstdio>
__global__ void add(int * dev_a[],int * dev_b[],int * dev_c[])
{
    for(int i=0;i<2;i++)
    { 
        for(int j=0;j<2;j++)
        {
            dev_c[i][j]=dev_a[i][j]+dev_b[i][j];
        }
    }
}

inline void GPUassert(cudaError_t code,char * file,int line,bool Abort=true)
{
    if (code != 0) {
        fprintf(stderr,\"GPUassert: %s %s %d\\n\",cudaGetErrorString(code),file,line);
        if (Abort) exit(code);
    }       
}

#define GPUerrchk(ans) { GPUassert((ans),__FILE__,__LINE__); }

int main(void)
{
    const int aa[2][2]={{1,2},{3,4}};
    const int bb[2][2]={{5,6},{7,8}};
    int cc[2][2];

    int ** h_a = (int **)malloc(2 * sizeof(int *));
    for(int i=0; i<2;i++){
        GPUerrchk(cudaMalloc((void**)&h_a[i],2*sizeof(int)));
        GPUerrchk(cudaMemcpy(h_a[i],&aa[i][0],2*sizeof(int),cudaMemcpyHostToDevice));
    }

    int **d_a;
    GPUerrchk(cudaMalloc((void ***)&d_a,2 * sizeof(int *)));
    GPUerrchk(cudaMemcpy(d_a,cudaMemcpyHostToDevice));

    int ** h_b = (int **)malloc(2 * sizeof(int *));
    for(int i=0; i<2;i++){
        GPUerrchk(cudaMalloc((void**)&h_b[i],2*sizeof(int)));
        GPUerrchk(cudaMemcpy(h_b[i],&bb[i][0],cudaMemcpyHostToDevice));
    }

    int ** d_b;
    GPUerrchk(cudaMalloc((void ***)&d_b,2 * sizeof(int *)));
    GPUerrchk(cudaMemcpy(d_b,h_b,cudaMemcpyHostToDevice));

    int ** h_c = (int **)malloc(2 * sizeof(int *));
    for(int i=0; i<2;i++){
        GPUerrchk(cudaMalloc((void**)&h_c[i],2*sizeof(int)));
    }

    int ** d_c;
    GPUerrchk(cudaMalloc((void ***)&d_c,2 * sizeof(int *)));
    GPUerrchk(cudaMemcpy(d_c,h_c,cudaMemcpyHostToDevice));

    add<<<1,1>>>(d_a,d_b,d_c);
    GPUerrchk(cudaPeekAtLastError());

    for(int i=0; i<2;i++){
        GPUerrchk(cudaMemcpy(&cc[i][0],h_c[i],cudaMemcpyDeviceToHost));
    }

    for(int i=0;i<2;i++) {
        for(int j=0;j<2;j++) {
            printf(\"(%d,%d):%d\\n\",i,j,cc[i][j]);
        }
    }

    return cudaThreadExit();
}
我建议您研究它,直到您了解它的作用,以及为什么与使用线性内存相比这是一个糟糕的主意。     ,您无需在设备内部使用for循环。试试这个代码。
#include <stdio.h>
#include <cuda.h>
#include <stdlib.h>
#include <time.h>

#define N 800
__global__ void  matrixAdd(float* A,float* B,float* C){

int i = threadIdx.x;
int j = blockIdx.x;
C[N*j+i] = A[N*j+i] + B[N*j+i];
}

int main (void) {
clock_t start = clock();
float a[N][N],b[N][N],c[N][N];
float *dev_a,*dev_b,*dev_c;

cudaMalloc((void **)&dev_a,N * N * sizeof(float));
cudaMalloc((void **)&dev_b,N * N * sizeof(float));
cudaMalloc((void **)&dev_c,N * N * sizeof(float));

for (int i = 0; i < N; i++){
    for (int j = 0; j < N; j++){    
        a[i][j] = rand() % 10;
        b[i][j] = rand() % 10;
    }
}

cudaMemcpy(dev_a,a,N * N * sizeof(float),cudaMemcpyHostToDevice);
cudaMemcpy(dev_b,b,cudaMemcpyHostToDevice);

matrixAdd <<<N,N>>> (dev_a,dev_b,dev_c);
cudaMemcpy(c,dev_c,cudaMemcpyDeviceToHost);

for (int i = 0; i < N; i++){
    for (int j = 0; j < N; j++){
    printf(\"[%d,%d ]= %f + %f = %f\\n\",a[i][j],b[i][j],c[i][j]);
    }
}
printf(\"Time elapsed: %f\\n\",((double)clock() - start) / CLOCKS_PER_SEC);

cudaFree(dev_a);
cudaFree(dev_b);
cudaFree(dev_c);

return 0; 
}
    

版权声明:本文内容由互联网用户自发贡献,该文观点与技术仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 dio@foxmail.com 举报,一经查实,本站将立刻删除。

相关推荐


依赖报错 idea导入项目后依赖报错,解决方案:https://blog.csdn.net/weixin_42420249/article/details/81191861 依赖版本报错:更换其他版本 无法下载依赖可参考:https://blog.csdn.net/weixin_42628809/a
错误1:代码生成器依赖和mybatis依赖冲突 启动项目时报错如下 2021-12-03 13:33:33.927 ERROR 7228 [ main] o.s.b.d.LoggingFailureAnalysisReporter : *************************** APPL
错误1:gradle项目控制台输出为乱码 # 解决方案:https://blog.csdn.net/weixin_43501566/article/details/112482302 # 在gradle-wrapper.properties 添加以下内容 org.gradle.jvmargs=-Df
错误还原:在查询的过程中,传入的workType为0时,该条件不起作用 &lt;select id=&quot;xxx&quot;&gt; SELECT di.id, di.name, di.work_type, di.updated... &lt;where&gt; &lt;if test=&qu
报错如下,gcc版本太低 ^ server.c:5346:31: 错误:‘struct redisServer’没有名为‘server_cpulist’的成员 redisSetCpuAffinity(server.server_cpulist); ^ server.c: 在函数‘hasActiveC
解决方案1 1、改项目中.idea/workspace.xml配置文件,增加dynamic.classpath参数 2、搜索PropertiesComponent,添加如下 &lt;property name=&quot;dynamic.classpath&quot; value=&quot;tru
删除根组件app.vue中的默认代码后报错:Module Error (from ./node_modules/eslint-loader/index.js): 解决方案:关闭ESlint代码检测,在项目根目录创建vue.config.js,在文件中添加 module.exports = { lin
查看spark默认的python版本 [root@master day27]# pyspark /home/software/spark-2.3.4-bin-hadoop2.7/conf/spark-env.sh: line 2: /usr/local/hadoop/bin/hadoop: No s
使用本地python环境可以成功执行 import pandas as pd import matplotlib.pyplot as plt # 设置字体 plt.rcParams[&#39;font.sans-serif&#39;] = [&#39;SimHei&#39;] # 能正确显示负号 p
错误1:Request method ‘DELETE‘ not supported 错误还原:controller层有一个接口,访问该接口时报错:Request method ‘DELETE‘ not supported 错误原因:没有接收到前端传入的参数,修改为如下 参考 错误2:cannot r
错误1:启动docker镜像时报错:Error response from daemon: driver failed programming external connectivity on endpoint quirky_allen 解决方法:重启docker -&gt; systemctl r
错误1:private field ‘xxx‘ is never assigned 按Altʾnter快捷键,选择第2项 参考:https://blog.csdn.net/shi_hong_fei_hei/article/details/88814070 错误2:启动时报错,不能找到主启动类 #
报错如下,通过源不能下载,最后警告pip需升级版本 Requirement already satisfied: pip in c:\users\ychen\appdata\local\programs\python\python310\lib\site-packages (22.0.4) Coll
错误1:maven打包报错 错误还原:使用maven打包项目时报错如下 [ERROR] Failed to execute goal org.apache.maven.plugins:maven-resources-plugin:3.2.0:resources (default-resources)
错误1:服务调用时报错 服务消费者模块assess通过openFeign调用服务提供者模块hires 如下为服务提供者模块hires的控制层接口 @RestController @RequestMapping(&quot;/hires&quot;) public class FeignControl
错误1:运行项目后报如下错误 解决方案 报错2:Failed to execute goal org.apache.maven.plugins:maven-compiler-plugin:3.8.1:compile (default-compile) on project sb 解决方案:在pom.
参考 错误原因 过滤器或拦截器在生效时,redisTemplate还没有注入 解决方案:在注入容器时就生效 @Component //项目运行时就注入Spring容器 public class RedisBean { @Resource private RedisTemplate&lt;String
使用vite构建项目报错 C:\Users\ychen\work&gt;npm init @vitejs/app @vitejs/create-app is deprecated, use npm init vite instead C:\Users\ychen\AppData\Local\npm-