腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
不使用第二次
GPU
将AMD
GPU
传送到虚拟机
、
我阅读了一些关于将
GPU
传递到虚拟机的主题,但这些示例需要两个
GPU
(一个用于VM,一个用于
主机
操作
系统
)。现在,我发现有人提到将
系统
GPU
中可用的单个文件传递给VM。这在Ubuntu有可能吗?
浏览 0
提问于2015-03-11
得票数 1
1
回答
GPU
系统
内存映射
、
、
、
、
如何为
GPU
访问映射
系统
内存(RAM)?我很清楚cpu的虚拟内存是如何工作的,但不确定当
GPU
访问
GPU
映射的
系统
内存(
主机
)时,它将如何工作。基本上是关于如何将数据从
系统
内存复制到
主机
内存,反之亦然。你能提供参考文章支持的解释吗?
浏览 1
提问于2012-07-06
得票数 15
回答已采纳
1
回答
VirtualBox上用于Ubuntu16.04客户端的虚拟
GPU
、
、
、
假设
主机
操作
系统
有
GPU
,有人能告诉我使用VirtualBox运行的Ubuntu16.04客户机是否能够通过虚拟化使用
GPU
吗?我读到
GPU
虚拟化只对QEMU有用,但我听说VirtualBox是基于(部分?)在QEMU上,我会看到性能的好处吗?另外,
主机
操作
系统
是什么关系到吗?
浏览 0
提问于2016-04-22
得票数 -1
1
回答
为什么cuda内核可以访问
主机
内存?
、
我直接访问cuda内核中的
主机
mem,没有发现错误,这是为什么? int r = blockDim.x * blockIdx.x + threadIdx.x; c_
gpu
[
浏览 6
提问于2021-09-05
得票数 3
回答已采纳
1
回答
为什么我只有200 MB的
GPU
使用量,即使我只创建了一个字节的数据?
通过使用nvidia-smi,我发现RTX 3060和RTX 3080 Ti的实际
GPU
使用量分别为105 Ti和247 Ti。但是我在
GPU
中只有一个字节的数据。为什么会这样呢?以及为什么
GPU
的基本用法不同?// compiled with nvcc -O3 show_basic_
gpu
_usage.cu -o show_basic_
gpu
_usage#include
浏览 11
提问于2022-08-01
得票数 0
回答已采纳
1
回答
MPI中的投票操作
、
、
、
每台
主机
都知道一个布尔值(无论是
GPU
主机
还是CPU
主机
)。当i-th
主机
是a[i]==true
主机
时,我需要在每个包含
GPU
的
主机
上获取一个布尔数组。每个
主机
上的阵列必须相同。语言是C++ (C语言也可以),操作
系统
是Ubuntu20.04。
浏览 19
提问于2021-11-12
得票数 0
1
回答
docker中的tensorflow图像是否使用
GPU
?
、
、
我对我的docker是否使用
GPU
有疑问。 我的台式机有GeForce 2060超级和瑞森53600。 我用tensorflow实现了CNN。每个图像的kB在20到50之间。另一方面,当我在docker中使用tensorflor-
gpu
-jupyter图像时,每个时期花费21秒(大约83ms/步)。我的docker命令如下。docker run --gpus all --rm -p 8888:8888 -v $PWD/CNN:/tf/notebooks tensorflow/tensorflow:latest
浏览 10
提问于2020-10-27
得票数 2
1
回答
测量cudaMemcpy时钟周期
、
、
但是,如果它使用
GPU
,我如何测量在副本中花费了多少时钟周期?
浏览 5
提问于2014-06-03
得票数 0
回答已采纳
1
回答
在Google Cloud VM中使用
GPU
与Container和Container优化操作
系统
、
、
、
我想在Google Compute Engine上运行一个带有
GPU
的自定义Docker镜像。我已经构建了镜像并将其推送到Google Container Registry。在Google Cloud Engine中为
主机
使用容器优化操作
系统
似乎是合乎逻辑的,因为除了Docker、Nvidia
GPU
驱动程序和nvidia-container-runtime之外,我不需要在
主机
上安装任何额外的软件但是如果没有nvidia-container运行时,我不能使用
GPU
(使用--
gp
浏览 22
提问于2020-04-07
得票数 2
2
回答
如何在windows 10和ubuntu之间启动而不重新启动?
、
、
、
我知道我可以无缝地同时安装这两个操作
系统
,并且能够通过重新启动和选择引导到哪个操作
系统
来在两者之间切换。有什么办法可以让远程访问桌面的人不用重新启动就能切换操作
系统
吗?我已经了解了VirtualBox和VMware,但是在安装Windows 10作为
主机
,Ubuntu作为来宾时,它不允许VirtualBox访问
主
浏览 0
提问于2016-06-01
得票数 0
回答已采纳
1
回答
带有映射内存、统一虚拟寻址和统一内存的
GPU
内存过度订阅
、
、
、
、
我正在考虑在
GPU
上处理数据的可能性,这对
GPU
内存来说太大了,我有几个问题。如果我正确地理解了这一点,使用映射内存,数据驻留在主内存中,并且只有在访问时才被传输到
GPU
,所以分配给
GPU
内存不应该是一个问题。 UVA类似于映射内存,但是数据可以存储在CPU和
GPU
内存中。但是
GPU
是否有可能在满有自己的数据的同时访问主内存(就像映射内存一样)?在这种情况下会发生内存溢出吗?在CUDA6.0中,UM不允许过订阅
GPU
内存(通常也不允许分配比
GPU
拥有的
浏览 3
提问于2017-09-20
得票数 2
回答已采纳
1
回答
哪一个是混合CPU-
GPU
,只有
GPU
,onlyCPU实现大矩阵加法或矩阵乘法?
、
如果有一个矩阵加法应用程序是由混合CPU-
GPU
实现的(在CUDA (即)中,每个线程在
主机
CPU和
GPU
中执行部分矩阵加法),例如,如果矩阵大小为1000,第一个500将由
主机
cpu计算,其余由
gpu
计算,基本上计算在CPU和
GPU
之间,与只计算CPU和只计算
GPU
相比,这是最好的。我是数据自动化
系统
的新手,所以任何帮助/指导都将不胜感激。 谢谢!
浏览 5
提问于2014-08-02
得票数 0
回答已采纳
2
回答
CUDA_VISIBLE_DEVICES与sge的结合
、
、
使用sge和称为'
gpu
.q‘的资源复合体,可以对
gpu
设备(这些都是nvidia设备)进行资源管理。但是,在
系统
上有多个
gpu
设备(处于独占模式),如果在同一个节点上分配了两个作业,用户就无法在正确的
gpu
上不透明地创建上下文。hostA ->
gpu
1:free hostB ->
浏览 0
提问于2012-04-05
得票数 1
1
回答
为什么Cuda运行时在初始化时保留80 GiB虚拟内存?
我在分析我的CUDA4程序时发现,在某个阶段,正在运行的进程使用了超过80 GiB的虚拟内存。这比我预期的要多得多。在检查了内存映射随时间的演变,并比较了它正在执行的代码行之后,发现在执行了这些简单指令之后,虚拟内存使用量增加到了80 GiB以上: cudaGetDeviceCount(&deviceCount); perror("No devices supporting CUDA");显然,这是第一个Cuda调用,因此运行时已初始化。在此之后,内存映射如下
浏览 2
提问于2012-07-24
得票数 12
回答已采纳
1
回答
DtoD和PtoP内存副本有什么区别?
、
、
、
当使用nvprof分析应用程序时,我发现了PtoP和DtoD memcpy。我不知道这两者有何区别。
浏览 4
提问于2017-07-14
得票数 2
1
回答
未识别的Intel HD卡(改为llvm导管)
、
、
这里是我的情况:迷你PC,i5 7200 +英特尔HD 620卡,Proxmox到位的虚拟化(通过
GPU
到位发送给Ubuntu )。Ubuntu 18.04,新安装。
浏览 0
提问于2020-04-02
得票数 1
1
回答
外部NVIDIA
GPU
上的CUDA
、
、
、
我的
系统
有一个带有Radeon 7470M+HD6520G双图形的AMD 7470M+HD6520G处理器。所以它是一个完整的AMD
系统
!我对此高效地运行了AMD应用程序OpenCL SDK。我有兴趣使用CUDA在一个更强大的NVIDIA
GPU
。我的问题是, 如果我购买一个NVIDIA
GPU
与PCI快递,我能连接到我的
系统
和运行CUDA吗?
主机
和设备(CPU-
GPU
)之间的内存传输有多少瓶颈?
浏览 0
提问于2014-04-05
得票数 0
回答已采纳
1
回答
Pci如何通过?
、
如果我将我的
系统
GPU
配置为PCI旁路,它会停止在
主机
上工作吗?
浏览 0
提问于2020-08-24
得票数 0
回答已采纳
2
回答
统一内存(至少Pascal)
、
、
由于Pascal体系结构,可以设置大于
GPU
上可用物理内存的大小。谢谢你的帮助。
浏览 3
提问于2018-06-04
得票数 0
回答已采纳
2
回答
NUMA机上使用CUDA的多
GPU
编程
、
、
、
我目前将一个算法移植到两个
GPU
。硬件设置如下: 我在
主机
上创建了两个线程来控制
GPU
。每个线程都绑定到一个NUMA,也就是说,两个线程都运行在一个CPU套接字上。如何确定
GPU
的数目,以便使用cudaSetDevice()选择直接连接的
GPU
?
浏览 4
提问于2013-04-17
得票数 3
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券