腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
一个GPU的每个多处理器有多少个“
CUDA
核心
”?
cuda
、
gpu
、
gpgpu
我知道费米架构之前的设备在一个多处理器中有8个SP。费米架构中的计数是相同的吗?
浏览 0
提问于2011-03-07
得票数 7
回答已采纳
1
回答
关于
CUDA
的架构(SM,SP)
c++
、
c
、
visual-studio
、
cuda
、
gpgpu
我是一个刚刚开始
CUDA
程序的人。SP =
CUDA
核心
/MP=8 顺便说一句,deviceQuery.cpp的结果如下。
CUDA
设备查询(Runtime )版本(CUDART静态链接)检测到1个
CUDA
设
浏览 0
提问于2013-10-17
得票数 5
1
回答
寻找学习在C#中使用
CUDA
的好资源
c#
、
visual-studio-2010
、
cuda
我想开始使用
CUDA
。我的编程环境是VS2010,C#.Net 4.0。已下载
CUDA
SDK和最新驱动程序。
浏览 2
提问于2012-08-28
得票数 2
回答已采纳
1
回答
开普勒K20Xm上的双精度单元
cuda
、
double
、
kepler
根据,SMX有192
CUDA
核和64双精度单元(DPU)。对于一个K20Xm,在2688核上总共有14 SMX,这意味着只有
CUDA
核被计算。那么DPU到底是用于什么用途的,它们的使用与
核心
有什么关系呢?a)
CUDA
核心
不能进行双精度操作,只有DPU才能做到。因此,在DPU忙的时候,
CUDA
核心
是免费的。( b)
CUDA
核心
在某种程度上需要一个双精度单元来进行双精度操作,因此只有128的192
CUDA</
浏览 2
提问于2013-12-09
得票数 0
回答已采纳
3
回答
对于
CUDA
,线程是否停留在GPU上的单个SP上?
cuda
、
scheduling
在编写
CUDA
程序时,我们都知道线程块将被调度在SM上,不会迁移到其他SMs。对于线程块的线程,它是在整个执行过程中停留在单个SP上,还是它的指令可以任意地在不同的SPs上调度?
浏览 3
提问于2013-08-01
得票数 1
回答已采纳
1
回答
使用多少个
CUDA
核心
来处理
CUDA
偏差?
cuda
、
nvidia
、
core
、
warp
我正在寻找答案,但有一些冲突的想法:在这个链接中,两个warps (64个线程)可以在SM (32个
CUDA
内核)上同时运行。因此,据我所知,warp上的线程被拆分并在16个
CUDA
内核上进行处理。这个想法对我来说很有意义,因为每个
CUDA
核心
都有1个32bitALU。 然而,在其他链接中,他们声称1
CUDA
核心
能够处理32个并发线程(与warp大小相同) ()。因此,1个
CUDA
warp只能由一个
CUDA
内核处理。这也是有意义的,因为所有线程在相同
浏览 14
提问于2020-06-02
得票数 1
1
回答
GPU -多少标量通道
cuda
、
shader
、
gpu
、
nvidia
我有点搞不懂GPU有多少标量转子(我指的是"gpu simd宽度“x "gpu simd
核心
”),例如我自己的GPU "nvidia geforce gt 610") 它有48个着色器处理器(我希望每个处理器都有单独的
浏览 4
提问于2014-07-18
得票数 0
回答已采纳
2
回答
GPU MHZ利用率
parallel-processing
、
cuda
、
gpu
、
nvidia
、
nvml
我正在开发一个用于GPU卡的监控代理,它能够使用
CUDA
和NVML库提供实时遥测。((GRAPHICS_MHZ *
CUDA
_CORES) /100) *
浏览 5
提问于2018-01-25
得票数 2
2
回答
关于数据自动化系统的一条线索
cuda
我正在调用一个
CUDA
内核,其中只有一个块和一个线程。该内核是否仅在指定的单个
CUDA
核心
上执行?例如,如果GPU有128个
核心
,那么128个
核心
中只有一个能工作吗? 非常感谢!
浏览 6
提问于2012-12-10
得票数 3
回答已采纳
1
回答
使用MPS在Nvidia GPU上生成
核心
转储
cuda
、
gpu
、
nvidia
、
gpgpu
GPU
核心
转储可以通过将环境变量"
CUDA
_ENABLE_COREDUMP_ON_EXCEPTION“设置为"1”来生成。不使用MPS时,生成
核心
转储成功。但是有了MPS,生成的
核心
转储文件的大小小于没有MPS的文件的大小。我怀疑在
核心
转储完全生成之前,MPS服务器已经退出。有没有办法让我们得到完整的GPU
核心
转储与MPS?
Cuda
工具包版本: 8.0驱动版本: 375.26 GPU架构:特斯拉P100 (Pascal)
浏览 1
提问于2017-07-24
得票数 0
1
回答
Directx是否将
CUDA
库用于nvidia显卡?
cuda
、
directx
、
libraries
、
nvidia
就像标题说的那样,directx是否以任何方式使用nvidia卡的
CUDA
库/扩展? 实际上,directx库实际上是通过
CUDA
库调用
CUDA
核心
吗?
浏览 0
提问于2016-07-10
得票数 1
回答已采纳
1
回答
如何在MITK插件中使用
CUDA
?
cmake
、
cuda
、
mitk
我正在尝试在MITK平台上使用
CUDA
。我使用的MITK平台是2014年版本,它不支持数据自动化系统;然而,我发现了一个,它显示了一个解决方案,但它也不适合我。因此,根据上面的链接,我修改了"mitkFunctionCreateModule.cmake“ find_package(
CUDA
REQUIRED) #list(APPEND <em
浏览 12
提问于2017-10-09
得票数 0
回答已采纳
2
回答
GPU/
CUDA
核心
是SIMD核吗?
cuda
、
gpu
、
gpgpu
、
simd
上面写着: ..。 在费米,新设计的整数ALU支持所有指令的完全32位精度,符合标准编程语言的要求。每个翘曲只分配给一个
核心
(这是真的吗?)这是否意味着,单个SM的
浏览 7
提问于2015-02-02
得票数 13
回答已采纳
2
回答
我不能在
CUDA
内核中设置断点
cuda
、
nsight
我是NSIGHT和
CUDA
的新手。我试图在我的
CUDA
内核代码中设置一个断点,但我不能--断点是在内核的末尾设置的,而不是在我想调试的特定行上设置的。我正在使用VS2010 (MFC项目)与NSIGHT 2.2和
CUDA
4.2。 我目前运行的程序通过菜单->Nsight->启动
CUDA
调试。
浏览 3
提问于2013-02-27
得票数 1
回答已采纳
1
回答
CUDA
和其他OptiX组件中固有的光线三角形相交
cuda
、
raytracing
、
ptx
、
optix
有没有办法在不使用OptiX的情况下,直接在
CUDA
中使用硬件加速的光线三角形相交?这类似于如何在
CUDA
中直接使用张量
核心
进行小矩阵乘法,请参阅https://developer.nvidia.com/blog/programming-tensor-cores-
cuda
-9/的
CUDA
9.0中对张量
核心
的编程访问。或者,RT
核心
是否可以用于从设备代码中遍历Optix未生成的自定义BVH?
浏览 34
提问于2021-01-01
得票数 3
2
回答
使用
CUDA
推力并行执行几个一维移动平均线
cuda
、
thrust
在我看来,程序流程可能是: 读取每个
核心
的结果。如果我看到的是GOOG的价格,我会把它放在GPU中使用所有的<
浏览 3
提问于2012-09-12
得票数 3
回答已采纳
4
回答
流多处理器、块和线程(
CUDA
)
cuda
、
nvidia
CUDA
核心
、流多处理器与块和线程的
CUDA
模型之间有什么关系?这是正确的吗?
浏览 6
提问于2010-08-19
得票数 96
回答已采纳
3
回答
库达:总共有多少并发线程?
cuda
、
gpgpu
deviceQuery向我提供了以下可能相关的信息:(16) Multiprocessors x(32)
CUDA
Cores/MP: 512
CUDA
我想我听说每个
CUDA
核心
可以并行运行一个翘曲还是说我离得太远了,而数据自动化系统的
核心
在某种程度上
浏览 4
提问于2011-06-27
得票数 51
回答已采纳
1
回答
如何在Google的GPU中找到
核心
的数量?
python
、
gpu
、
google-colaboratory
我想知道Colab分配的GPU的
核心
数量。我使用了!nvidia-smi -q,但它显示了所有其他细节,但没有显示的
核心
数目的GPU。 我研究过它,但没有找到它。对此有什么帮助吗!!
浏览 1
提问于2021-07-01
得票数 0
回答已采纳
1
回答
硬件和内存上GPU线程的最大数目
cuda
、
gpu
、
numba
我的显卡是Nvidia Geforce 1080 is,所以我有3584个
CUDA
核心
。据我所知,每个
Cuda
核心
执行一个线程,因此理论上,我可以每个周期执行3584个线程。这是正确的吗?我使用
cuda
.to_device (在Python中)将数组传输到GPU,据我所知,这些数组驻留在全局内存中。我怎么知道这个全球记忆有多大?它相当于DRAM的大小吗? 提前感谢
浏览 5
提问于2022-05-01
得票数 -1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
CUDA编程的错误处理
CUDA是NVIDIA的护城河
利用 CUDA实现深层人形图像分割网络
如何解决“RuntimeError:CUDA Out of memory”问题
ROS包内实现Cuda加速的配置
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券