腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
nvidia
cuda
访问
gpu
共享
内存
c++
、
cuda
、
nvidia
我正在尝试使用
cuda
分配
共享
gpu
内存
(与
共享
内存
技术无关)。
内存
在英特尔和
nvidia
gpu
之间
共享
。为了分配
内存
,我使用cudaMallocManaged,最大分配大小是2 2GB (对于cudaMalloc也是如此),所以专用
内存
的大小。 ? 有没有办法从主机上分配
gpu
共享
内存
或RAM,然后在内核中使用?
浏览 111
提问于2019-12-13
得票数 0
回答已采纳
1
回答
在多个
GPU
系统上分割数组并在不同的
GPU
之间传输数据。
cuda
、
gpgpu
我正在使用
CUDA
的双重
GPU
系统使用
NVIDIA
GTX 590卡,我有一个数组分区根据下图。谢谢。
浏览 0
提问于2013-07-24
得票数 0
回答已采纳
1
回答
在新的
CUDA
6中,可以通过简单的指针从CPU内核
访问
GPU
吗?
cuda
、
gpgpu
、
nvidia
、
virtual-address-space
现在,如果我使用这段代码尝试通过在GeForce GTX460SE (CC2.1)中使用
CUDA
5.5从CPU内核
访问
GPU
,那么我将得到一个异常“
访问
冲突”: 2013年10月25日- 331.17驱动程序:新的
NVIDIA
统一内核存储模块是一个新的内核模块,将在即将发布的
NVIDIA
的
CUDA
版本中公开统一
内存
功能。新的模块是
nvidia</em
浏览 1
提问于2013-11-19
得票数 1
回答已采纳
1
回答
CUDA
Fermi的架构:
内存
结构
cuda
、
global
、
shared
、
tesla
我有一个关于
CUDA
Fermi's architecture的问题:我在某个地方读到过,在Fermi's architecture中,全局
内存
的
访问
速度与
共享
内存
一样快,因为它们现在使用统一寻址。因此,我真的可以
访问
全局
内存
上的数据而不会有(大)延迟(不像“预费米”
GPU
)?对我来说,知道这一点非常重要,因为我正在为
Nvidia
Tesla
GPU
编程,但没有它(它在大学的实验室里,我在夏天不能
浏览 3
提问于2012-08-12
得票数 0
3
回答
在TensorFlow中使用
共享
图形处理器
内存
?
tensorflow
、
shared-memory
、
vram
诚然,我对显卡知之甚少,但根据dxdiag的说法,它确实有:
共享
内存
的8163MB 总计约为12224MB。然而,我注意到的是,这种“
共享
”的记忆似乎几乎毫无用处。当我开始训练一个模型时,VRAM将被填满,如果
内存
需求超过这些4GB,TensorFlow将崩溃,并显示“资源耗尽”错误消息。当然,我可以通过适当地选择较低的批处理大小来防止达到这一点,但我确实想知道是否有一种方法可以利用这些“额外的”
内存
8GB,或者是否就是这样,而TensorFlow需要专用
浏览 2
提问于2017-12-18
得票数 33
回答已采纳
1
回答
GPU
中的L1缓存
caching
、
cuda
、
gpu
在阅读
GPU
的
内存
层次结构时,我看到了一些类似的术语,而且由于在过去的版本中有一些架构修改,我不知道它们是否可以一起使用,或者有不同的含义。该设备是M2000,它是计算兼容性5.2。下面是 L2 缓存,也称为
共享
内存
,根据./deviceQuery,L2大小为768 L2,由所有SMs
共享
。如果这是一个聚合值,那么每个SM都有768 is /6=128 is。但是,根据,
共享
内存
是96 is。 那么,常量
内存
是什么?它驻留在哪里?在
浏览 1
提问于2019-04-18
得票数 2
回答已采纳
1
回答
对于
GPU
上的非原子写入的弱保证?
cuda
、
opencl
、
atomic
、
memory-model
OpenCL和
CUDA
已经包括了几年的原子操作(虽然显然不是每个
CUDA
或OpenCL设备都支持这些操作)。但是-我的问题是,由于非原子的写作,“与种族一起生活”的可能性。假设一个网格中的多个线程都写入全局
内存
中的相同位置。我们是否保证,当内核执行结束时,其中一个写操作的结果将出现在该位置,而不是一些垃圾?这个问题的相关参数(选择任意组合,编辑,除了已经得到答案的
nVIDIA
+
CUDA
):
内存
空间:仅限于全局
内存
;此问题不涉及本地/
共享</em
浏览 0
提问于2016-07-02
得票数 5
1
回答
nvidia
-smi命令未在DJI流形2G
NVIDIA
Jetson TX2上找到
embedded
、
dji-sdk
、
nvidia-jetson
在通过终端运行
nvidia
-smi时,我会遇到
nvidia
-smi command not found,但是我知道jetpack 3.3 (
nvidia
驱动程序)已经安装好了。是否有人遇到过类似的问题与
Nvidia
jetson tx2?它告诉你
GPU
的细节.0: "
NV
浏览 11
提问于2021-12-09
得票数 0
回答已采纳
2
回答
推荐用于Tensorflow的
GPU
gpu
、
tensorflow
我理解Tensorflow需要(对于
GPU
计算)一个具有
Nvidia
计算能力的
GPU
>= 3.0。有许多这样的
GPU
可供选择。面向游戏的
GPU
,例如GeForce模型,要比面向计算的
GPU
(如Tesla )便宜得多。在选择与Tensorflow一起使用的
GPU
时,应该寻找哪些属性?
浏览 5
提问于2016-03-31
得票数 6
回答已采纳
1
回答
用Python在
GPU
内存
中定义
共享
数组?
python
、
arrays
、
numpy
、
multiprocessing
我试图使用一个由多个进程与Python
共享
的数组。我用multiprocessing.RawArray定义数组,用numpy.frombuffer()定义数组,完成了CPU版本。当我尝试用chainer.
cuda
.to_
gpu
()将代码移植到
GPU
时,我发现每个进程只是在
GPU
内存
空间中复制自己的副本,并且数组是不
共享
的。有人知道有没有办法解决这个问题吗? 谢谢!
浏览 4
提问于2016-11-11
得票数 0
回答已采纳
2
回答
TensorFlow如何在Windows10的图形处理器上同时使用
共享
和专用的图形处理器
内存
?
tensorflow
、
memory-management
、
windows-10
当运行TensorFlow作业时,我有时会得到一个非致命的错误,说
GPU
内存
已超出,然后我在Windows10上的性能监视器上看到“
共享
内存
GPU
使用率”。注意:一个被
浏览 1
提问于2018-07-13
得票数 2
2
回答
CUDA
表面存储器的峰值带宽?
cuda
、
gpu
、
benchmarking
、
nvidia
表面存储器是
CUDA
中纹理缓存的唯一模拟. 如果不是,那么我如何实现一个基准来测量写入表面
内存
的带宽呢?
浏览 5
提问于2013-01-17
得票数 1
3
回答
什么时候我会使用model.to("
cuda
:1")而不是model.to("
cuda
:0")?
pytorch
我有一个有两个
GPU
的用户,第一个是不能运行
CUDA
的AMD,第二个是一个具有
cuda
功能的
NVIDIA
GPU
。我正在使用代码model.half().to("
cuda
:0")。我不确定调用是否成功地使用了
GPU
,也无法测试它,因为我周围没有超过一个
GPU
的备用计算机。在这种情况下,"
CUDA
:0“是否意味着第一个可以运行
CUDA
的设备,所以即使他们的第一个设备是AMD,它也能工作
浏览 17
提问于2022-04-07
得票数 1
回答已采纳
2
回答
如何减少
CUDA
上下文大小(多进程服务)
cuda
、
gpu
、
gpgpu
、
cuda-context
、
multi-process-service
我学习了罗伯特·克罗夫拉( Robert )关于如何使用
Nvidia
's 的。根据 没有MPS,每个
CUDA
进程使用
GPU
在
GPU
上分配单独的存储和调度资源。相反,MPS服务器分配由其所有客户端
共享
的
GPU
存储和调度资源的一个副本。 现在,回
浏览 6
提问于2019-12-19
得票数 0
回答已采纳
1
回答
nvidia
-码头-
cuda
_runtime可以在构建容器时使用吗?
darknet
、
nvidia-docker
我有一个简单的Dockerfile,我正在测试-相关的部分:..."RUN less /usr/local/
cuda
/README我看到的大多数文档都是在运行容器时使用
nvidia
库引用的,但是在使用
gpu
支持构建时
浏览 0
提问于2018-12-03
得票数 1
回答已采纳
1
回答
我能在代码
共享
内存
中使用
nVidia
Quadro KxxxxM (MXM)移动
GPU
吗?
cuda
、
gpu
、
shared-memory
、
gpgpu
、
nvidia
正如我所看到的,在中,
nVidia
Quadro KXXXXM - Mobile (MXM)中有。但是,如果我想在
CUDA
C/C++上为这些卡编写,我可以在代码
共享
内存
中使用吗?我将使用全局
GPU
-RAM吗?
浏览 7
提问于2013-11-02
得票数 1
回答已采纳
1
回答
获取/dev/
nvidia
*和
nvidia
-smi
gpu
列表之间的映射
gpu
、
nvidia
一个带有4个
GPU
的服务器用于深度学习。通常情况下,
GPU
内存
在训练过程终止(终止)后没有被释放。
nvidia
-smi显示的结果是 一些子进程还活着,因此占用了
内存
。但是,如果启动了多个进程,并且我们只想杀死与某个
GPU
相关的进程,则可以按
gpu
索引(
nvidia
0、
nvidia
1、.)对进程进行分组。作为: fuser -v
浏览 2
提问于2021-03-06
得票数 2
回答已采纳
1
回答
为数据科学/ ML任务设置多用户作业调度程序
kubernetes
、
gpu
、
cluster-computing
、
slurm
、
docker-datacenter
背景因为ML在这里生长。我正在寻找一种更好的方法来利用我们的基础设施。 资源的动态分配如果一个任务正在运行,那么可以使用整个
内存
,但是一旦启动了一个单独的任务,他们就应该
共享
资源。
浏览 5
提问于2018-11-23
得票数 6
回答已采纳
1
回答
哪种
GPU
模型/品牌最适合神经网络?
machine-learning
、
neural-network
、
gpu
Nvidia
和ATI架构不同,因此对于某些任务(如比特币挖掘),ATI比
Nvidia
要好得多。 神经网络相关处理也是如此。我试图在这样的背景下找到两个
GPU
品牌的比较,但没有做到。我的期望是,在
GPU
中,神经网络处理最重要的事情是核的数目。那是对的吗?
浏览 0
提问于2015-03-14
得票数 7
回答已采纳
2
回答
CUDA
设备似乎被阻塞了。
linux
、
cuda
、
nvidia
、
hpc
我正在运行一个小型的
CUDA
应用程序: QuickSort基准算法(参见)。我有一个双系统的
NVIDIA
660 and (设备0)和8600 and(设备1)。我有两个问题: 提前感谢您的帮
浏览 9
提问于2012-12-30
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
NVIDIA推出搭载5120 CUDA Core Volta GPU的Tesla V100 AI加速器
详解英伟达芯片在自动驾驶的软件移植设计开发
应付苛刻AI计算负载,NVIDIA 第一款100tb GPU内存架构
正式支持 JIT LTO,英伟达发布 CUDA 12.0 开发工具集更新
build the deep learning environment from zero to 1
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
云直播
实时音视频
活动推荐
运营活动
广告
关闭
领券