腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
如何将
函数
作为
cuda
内核
参数
传递
?
、
、
我想创建一个通用的
cuda
内核
,它接受一个可调用的对象
作为
参数
(比如lambda或function)并调用它。 我在将设备
函数
作为
参数
传递
给
cuda
内核
时遇到了问题。我有计算能力为3.5的
cuda
9.2。我在Debian10上使用的是gcc 9.3。
浏览 15
提问于2019-07-30
得票数 0
回答已采纳
1
回答
将变量
传递
给
CUDA
内核
、
所以,我正在用
CUDA
C++编写一个PDE解算器。求解器是一个
函数
,它反过来调用
cuda
内核
来解决PDE问题。现在,我想使用PDE
参数
作为
内核
的
参数
。我想
传递
整数,以及浮动,即非指针变量,但是找不到正确的语法。我不想使用
参数
作为
全局常量。我想使用它们
作为
内核
的
参数
。有没有办法这样做?你的帮助是非常感谢的。
浏览 1
提问于2018-07-10
得票数 1
回答已采纳
1
回答
在
CUDA
中将非POD类型
作为
__global__
函数
参数
传递
我知道一般情况下,非POD类型不能
作为
参数
传递
给
CUDA
内核
启动。但在我能找到解释的地方,我指的是一个可靠的来源,比如一本书,一本数据自动化系统手册,等等。
浏览 0
提问于2013-11-16
得票数 1
回答已采纳
2
回答
CUDA
内核
的
参数
、
当为特定的线程配置调用
CUDA
内核
时,是否有任何严格的规则在哪些内存空间(设备/主机)
内核
参数
中驻留以及它们应该是什么类型?假设我启动了一个一维线程网格我可以将整数
参数
int foo直接
传递
给
CUDA
内核
,它是主机还是应该对单个整数进行cudaMalloc内存,比如dev_
浏览 4
提问于2011-11-28
得票数 8
回答已采纳
2
回答
如何将
设备
函数
作为
输入
参数
传递
给主机端
函数
?
、
、
、
我只想把设备
函数
作为
主机
函数
的
参数
传递
,当然,主机
函数
可以用这个设备侧
函数
启动一些
内核
。 我尝试了通常的C++方式(通过指针/引用
传递
),而
CUDA
调试器告诉我
内核
不能启动。
浏览 2
提问于2013-08-28
得票数 0
1
回答
在
cuda
中有没有模板化的数学
函数
?
、
我一直在寻找
cuda
中的模板化数学
函数
,但我似乎找不到一个。在普通的c++中,如果我调用std::sqrt,它是模板化的,并且会根据
参数
是浮点型还是双精度型来执行不同的版本。我想要这样的
CUDA
设备代码。我的
内核
将实型
作为
模板
参数
传递
,现在我必须选择使用sqrtf
作为
float,或者使用sqrt
作为
double。我想推力可能会有这个功能,但它只对复数有效。
浏览 0
提问于2016-03-24
得票数 5
0
回答
将统一内存指针
传递
给
内核
会减慢程序的运行速度
、
、
在
CUDA
中,向
内核
传递
统一内存指针会减慢程序运行速度吗?为什么
传递
一个指针需要花费太多的时间?指针? 我应该如何提高程序的速度?
浏览 8
提问于2017-06-15
得票数 0
回答已采纳
2
回答
是否有相当于std::numeric_limits的数据自动化系统?
、
我想确定一个
CUDA
内核
中的最大int值。不幸的是,我找不到任何类似于std::numeric_limits的数据自动化系统。尝试使用::std
函数
会导致错误:是否有一
浏览 3
提问于2014-06-30
得票数 10
回答已采纳
1
回答
Cuda
虚拟类
、
、
我想在
cuda
内核
中执行一些虚拟方法,但我不想在同一个
内核
中创建对象,而是希望在主机上创建它并将其复制到gpu内存中。 我成功地在
内核
中创建了对象,并调用了一个虚拟方法。复制对象时会出现问题。这是有意义的,因为很明显虚
函数
指针是假的。发生的事情就是"
Cuda
网格启动失败“,至少Nsight是这么说的。但是,当查看SASS时,它会在虚
函数
指针的取消引用时崩溃,这是有意义的。我的想法是首先运行一个不同的
内核
,它创建虚拟对象,并在复制对象之前提取虚
浏览 2
提问于2012-10-03
得票数 6
回答已采纳
5
回答
将数组/指针
作为
模板
参数
传递
、
、
、
、
我正在尝试创建以下类型的模板
函数
:__global__ void smoothFilterColumns(const不幸的是,它不允许我像这样创建这个
函数
的实例:smoothFilterColumns<true, ptrKernel>(dxBuffer->
cuda
_image, dxOutput->
cuda
_image); 我尝试过各种
浏览 7
提问于2011-04-08
得票数 2
回答已采纳
1
回答
将
参数
按值
传递
给
内核
函数
时,
参数
在哪里被复制?
、
我是
CUDA
编程的初学者,有一个问题。当我按值
传递
参数
时,如下所示: // some operations由于变量a和b被
传递
给
内核
函数
添加
作为
函数
调用堆栈中的复制值如果我是对的,是在GPU或主机的主内存中复制这些
参数
的额外内存空间吗? 我想知道这个问题的原因是我应该把一个大的结构
传递
给
内
浏览 5
提问于2017-11-25
得票数 3
2
回答
我可以使用外部OpenCl库吗?
我想使用OpenCL在
Cuda
上执行这些任务,这样我就可以使用GPU的并行功能在大型data.So上并行执行这些任务,我的问题是: 我可以使用这些libraries?Also编写
内核
吗?
如何将
这些库的复杂数据结构的对象
作为
参数
传递
给
内核
/(具体地说,如何创建这些复杂对象的缓冲区??
浏览 4
提问于2012-05-29
得票数 3
回答已采纳
2
回答
作为
类成员的库达纹理?
、
、
为了解决
CUDA
纹理必须是全局变量这一限制,我尝试了以下方法: 不起作用。纹理不能
作为
参数
传递
(也不能通过指针或引用
传递
),并且
内核
不识别数组名,除非通过索引
传递
。
浏览 3
提问于2014-03-01
得票数 1
2
回答
将结构
传递
给cupy中的原始
内核
、
、
、
我有一些以float3、int2等结构
作为
参数
的
CUDA
内核
。我似乎无法通过cupy rawkernel接口将
参数
正确地
传递
给这些
内核
。我曾尝试为float3
参数
传递
一个由3个浮点数组成的一维CUPY数组,但该
参数
在
内核
中未被正确解释。我尝试
传递
一个ctypes结构,但是返回了一个不支持的类型错误。如果你检查一下cupy的源代码中的
函数
模块,它看起来应该可以工作。
浏览 23
提问于2019-12-06
得票数 0
回答已采纳
2
回答
cuLaunchKernel和
CUDA
_ERROR_INVALID_HANDLE失败的原因是什么?
、
我正在使用cudLaunchKernel()驱动程序API
函数
启动我编译的
CUDA
内核
。我在kernelParams数组中
传递
参数
,并将nullptr
传递
给extra
参数
。不幸的是,这失败了,错误是:
CUDA
_ERROR_INVALID_HANDLE。为什么?我检查了,看看
函数
在什么情况下可能会失败,编辑--它用
CUDA
_ERROR_INVALID_VALUE讨论失败(不是一回事)。它没有讨论我所犯的错误。由于cuL
浏览 6
提问于2020-07-07
得票数 1
回答已采纳
1
回答
Numba
cuda
动态共享内存:多类型?
、
、
我知道,我可以为numba编译的
CUDA
内核
创建一个动态共享内存数组,方法是将大小
作为
第四个
参数
传递
给
内核
调用:def foo_kernel(...) -> None:从这里开始,如果我想将a
作为
几个数组来处理,我可以对其进行切片a =
cuda
.shared.array(0, nb.int32)
浏览 3
提问于2022-11-13
得票数 -2
1
回答
CUDA
内核
对象
参数
的本地副本
我从那里了解到,
传递
给
CUDA
内核
的
参数
是通过常量内存
传递
的(对于计算能力2.0及更高版本),如果修改,它们将
作为
本地副本存储在寄存器或堆栈中。如果
参数
是一个对象,并且
内核
只修改了它的一些成员,会发生什么呢?是必须将整个对象存储在本地,还是只为修改后的成员创建副本?
浏览 0
提问于2013-04-18
得票数 2
回答已采纳
1
回答
在
CUDA
C++中分配变量-无法分配设备变量
、
、
、
函数
load_BMP和save_BMP都是完全功能的。我需要知道
如何将
bufferRGB复制到d_bufferRGB中,因为显然我做了一些错误。你能帮帮我吗?源代码在这里,>>>#include <stdlib.h>#include <
cuda
_runtime.h>#include "device_launch_p
浏览 1
提问于2017-05-09
得票数 0
回答已采纳
1
回答
使用pycuda (lerp)的线性插值
、
、
、
CUDA
CG
函数
为: 我的最终目标是从一组加权的随机点用pycuda实现双线性插值。我从来没有编写过C语言或者
CUDA
程序,并且我一直在学习。
浏览 1
提问于2012-01-06
得票数 1
回答已采纳
2
回答
对于
CUDA
中纹理引用的不灵活使用,是否有解决方法
、
我有一些纹理,我想在一些
内核
启动时读取。文档中说,这些必须在全球范围内定义。问题是我想用不同的纹理源调用相同的
内核
函数
(这是相当复杂的)。} { gpu_kernel_2<<<grid, block>>>();有没有可能有一种方法来
传递
给
内核
目前,我有一个可怕的解决方案:复制每个
内核
的所有代码,唯一的变化是tex2
浏览 0
提问于2012-03-15
得票数 4
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券