我在这个网站和其他网站上找遍了,什么都没有用。我求助于针对我的特定案例发布一个问题。
我有一堆矩阵,目标是使用内核让GPU对所有矩阵执行相同的操作。我非常确定我可以让内核工作,但是我不能让cudaMalloc / cudaMemcpy工作。
我有一个指向Matrix结构的指针,该结构有一个名为elements的成员,它指向一些浮点数。我可以做所有非cuda的mallocs。
感谢您的任何/所有帮助。
代码:
typedef struct {
int width;
int height;
float* elements;
} Matrix;
int main void() {
int rows, cols, numMat = 2; // These are actually determined at run-time
Matrix* data = (Matrix*)malloc(numMat * sizeof(Matrix));
// ... Successfully read from file into "data" ...
Matrix* d_data;
cudaMalloc(&d_data, numMat*sizeof(Matrix));
for (int i=0; i<numMat; i++){
// The next line doesn't work
cudaMalloc(&(d_data[i].elements), rows*cols*sizeof(float));
// Don't know if this works
cudaMemcpy(d_data[i].elements, data[i].elements, rows*cols*sizeof(float)), cudaMemcpyHostToDevice);
}
// ... Do other things ...
}
谢谢!
发布于 2013-10-16 21:53:55
你必须意识到你的记忆驻留在哪里。malloc分配主机内存,cudaMalloc分配设备上的内存,并返回指向该内存的指针。但是,此指针仅在设备函数中有效。
你想要的东西可以实现如下:
typedef struct {
int width;
int height;
float* elements;
} Matrix;
int main void() {
int rows, cols, numMat = 2; // These are actually determined at run-time
Matrix* data = (Matrix*)malloc(numMat * sizeof(Matrix));
// ... Successfully read from file into "data" ...
Matrix* h_data = (Matrix*)malloc(numMat * sizeof(Matrix));
memcpy(h_data, data, numMat * sizeof(Matrix);
for (int i=0; i<numMat; i++){
cudaMalloc(&(h_data[i].elements), rows*cols*sizeof(float));
cudaMemcpy(h_data[i].elements, data[i].elements, rows*cols*sizeof(float)), cudaMemcpyHostToDevice);
}// matrix data is now on the gpu, now copy the "meta" data to gpu
Matrix* d_data;
cudaMalloc(&d_data, numMat*sizeof(Matrix));
cudaMemcpy(d_data, h_data, numMat*sizeof(Matrix));
// ... Do other things ...
}
为了清楚起见:Matrix* data
包含主机上的数据。Matrix* h_data
在元素中包含一个指向设备内存的指针,该指针可以作为参数传递给内核。内存在GPU上。Matrix* d_data
完全在图形处理器上,可以像主机上的数据一样使用。
在您的内核代码中,您现在知道访问矩阵值,例如,
__global__ void doThings(Matrix* matrices)
{
matrices[i].elements[0] = 42;
}
https://stackoverflow.com/questions/19404965
复制相似问题