腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
使用Sun Grid引擎(SGE)调度
GPU
资源
、
、
、
我们有一组机器,每台都有4个
GPU
。每个作业应该能够要求1-4个
GPU
。这里有一个问题:我想让SGE告诉每个工作,它应该采取的
GPU
(s)。与CPU不同的是,如果一次只有一个进程访问
GPU
,则
GPU
的工作效果最好。所以我想:Job #2
GPU
: 2我遇到的问题是,SGE将允许我在每个节点上创建一个包含4个单元的
GPU
资源
浏览 6
提问于2012-05-11
得票数 4
回答已采纳
1
回答
有可能有不同的开发虚拟机环境和访问图形卡吗?
、
、
、
测试应用程序的环境 首先,我使用VirtualBox为#1和#2在我的
主机
Windows中创建了VM环境,但是我不能在VM中运行,因为它不提供对图形卡的访问。
浏览 1
提问于2021-01-12
得票数 0
1
回答
不使用第二次
GPU
将AMD
GPU
传送到虚拟机
、
我阅读了一些关于将
GPU
传递到虚拟机的主题,但这些示例需要两个
GPU
(一个用于VM,一个用于
主机
操作系统)。现在,我发现有人提到将系统
GPU
中可用的单个文件传递给VM。这在Ubuntu有可能吗?
浏览 0
提问于2015-03-11
得票数 1
1
回答
如何在两个
GPU
之间直接复制cudaArray?
、
、
假设我在
GPU
1中有一个
GPU
1,在
GPU
2中有另一个cudaArray。使用cudaMemcpyArrayToArray标志调用cudaMemcpyDeviceToDevice实际上会导致
GPU
1 cudaArray通过查看分析器复制到
主机
内存和复制到
GPU
2 cudaArray的
主机
内存。我尝试将
GPU
1 cudaArray复制到
GPU
1全局内存,并调用cudaMemcpyPeer将其复制到
GPU
2全局内存,然后
浏览 6
提问于2016-02-09
得票数 1
回答已采纳
1
回答
CUDA分配字符串数组
、
、
、
每当我运行包含这些行的脚本时: HANDLE_ERROR(cudaMalloc((void **)&
gpu
_reads, inputDim * sizeof(char *))); HANDLE_ERROR(cudaMalloc((void **)&(
gpu
_reads[i]), (READS_LENGTH+ 1) * sizeof(char))); for(i=0; i<in
浏览 0
提问于2016-06-10
得票数 0
1
回答
GPU
与远程
主机
之间的RDMA
、
、
、
、
可以在
GPU
和远程
主机
之间执行RDMA操作吗? Nvidia网站上的在线文档只提到在
GPU
之间进行RDMA,而没有提到在
GPU
-
主机
之间执行RDMA的可能性。注意事项:我可以访问一个配备了K80
GPU
和Mellanox的集群。
浏览 5
提问于2017-05-25
得票数 3
回答已采纳
2
回答
相当于在VM运行Linux的情况下查看眼镜?
、
、
、
看玻璃是一个开放源码的应用程序,它允许使用配置了通通
GPU
的KVM,而无需附加物理监视器、键盘或鼠标。 在查找眼镜术语中,
主机
软件是运行在VM来宾(使用
GPU
的VM )中的外观玻璃的术语。客户端软件是在Linux
主机
上运行的部分的术语,显示呈现的帧。“外观眼镜”
主机
目前仅限于Windows,它涵盖了主要的用例:在Windows中运行只使用Windows的
GPU
重型软件,在Linux
主机
上显示结果。我有一个稍微不同的用例:我将我的增强器无头
GPU
从Lin
浏览 0
提问于2021-02-04
得票数 1
回答已采纳
2
回答
在设备上分配CUDA变量之前,为什么需要在
主机
上声明CUDA变量
// declare
GPU
memory pointersfloat * d_out; cudaMalloc((void**) &d_in, ARRAY_BYTES);当
GPU
内存指针被声明时,它们会在
主机
上分配内存。我想不出为什么cudaMalloc需要知道
主机
内存d_in &
浏览 6
提问于2017-03-27
得票数 1
回答已采纳
2
回答
当
gpu
的内存已满时,它能使用交换空间吗?
、
、
我的笔记本电脑有一个集成的
gpu
,内存为1.5 GB。我试图运行代码,但它给出了错误的结果。所以我猜这是因为
gpu
的内存已经满了。我的问题是,当
gpu
的内存已满时,是否有一些“交换空间”(或虚拟内存)可供使用?我知道cpu有这个机制。但我对
gpu
不太确定。
浏览 0
提问于2014-12-13
得票数 2
1
回答
Cuda编译过程是如何进行的?
、
、
、
根据NVIDIAs编程指南: CUDA应用程序的源文件由传统的C++
主机
代码和
GPU
设备功能混合而成。CUDA编译轨迹将设备功能与
主机
代码分离,使用专有的NVIDIA编译器和汇编程序编译设备功能,使用可用的C++
主机
编译器编译
主机
代码,然后将编译后的
GPU
函数作为加脂二进制图像嵌入
主机
对象文件中。在链接阶段,添加了特定的CUDA运行库,以支持远程SPMD过程调用和提供显式
GPU
操作,如
GPU
内存缓冲区的分配和
主机
-<
浏览 14
提问于2022-02-02
得票数 0
1
回答
带有ArrayFire的多个
主机
线程
、
、
对于如何在ArrayFire中使用多个
主机
线程,我有一个新的问题。我们目前有一个高度并行的CPU专用代码,使用Open和mpi4py并行化.每个CPU线程执行大型矩阵乘法,通常与多个线程同时相乘。我们希望通过使用ArrayFire在单个
GPU
上执行矩阵乘法来提高性能。我很难找到答案,
浏览 3
提问于2018-01-11
得票数 2
回答已采纳
1
回答
库达: cudaMallocManaged处理出口吗?
、
如果(在C++ +CUDA中) cudaMallocManaged()用于在
主机
和
GPU
内存中分配共享数组,而程序遇到(例如在
主机
代码中)一个exit(1),这是否会永久地在
GPU
中留下悬空内存?我猜答案是不基于的,但我不确定
GPU
是否有某种回收机制。
浏览 2
提问于2018-10-04
得票数 0
回答已采纳
1
回答
MPI中的投票操作
、
、
、
每台
主机
都知道一个布尔值(无论是
GPU
主机
还是CPU
主机
)。当i-th
主机
是a[i]==true
主机
时,我需要在每个包含
GPU
的
主机
上获取一个布尔数组。每个
主机
上的阵列必须相同。
浏览 19
提问于2021-11-12
得票数 0
1
回答
当现代
gpu
内存耗尽时,如何利用磁盘上的交换空间?
、
、
、
后Pascal 可以分配比
GPU
内存更多的内存,这将自动在
GPU
内存和
主机
内存之间交换。 malloc(1<<20); 用cudaMalloc创建
GPU
内存占用率,留下1G
浏览 4
提问于2022-10-29
得票数 1
回答已采纳
2
回答
Android仿真程序无法在Android中工作-提供消息无法初始化OpenglES仿真,请使用“-
gpu
关闭”禁用它
、
无法打开共享对象文件:没有这样的文件或目录模拟器:此模拟器的序列号(用于亚行):模拟器-5554 模拟器:错误:无法初始化OpenglES仿真,请使用“-
gpu
浏览 9
提问于2017-02-24
得票数 0
2
回答
CUDA_VISIBLE_DEVICES与sge的结合
、
、
使用sge和称为'
gpu
.q‘的资源复合体,可以对
gpu
设备(这些都是nvidia设备)进行资源管理。但是,在系统上有多个
gpu
设备(处于独占模式),如果在同一个节点上分配了两个作业,用户就无法在正确的
gpu
上不透明地创建上下文。hostA ->
gpu
1:free hostB ->
gpu</
浏览 0
提问于2012-04-05
得票数 1
1
回答
如何在不同的组中访问同一
主机
的组变量?
、
、
]slurm-
gpu
-2 ansible_host=192.168.0.124 cpus=1slurm-
gpu
-1 allow_accounts=['whitelist','
gpu
_users'] default_partition=no此外,
主机
对于两个分区(组)都是通用的。当我试图
浏览 4
提问于2020-05-15
得票数 1
1
回答
CUDA程序设计中设备和
主机
执行时间的计算
、
、
我需要计算
GPU
运行时代码,以及总运行代码(
主机
和设备)。在我的代码中,我有两个
gpu
内核在运行,在
主机
for循环之间复制数据,下面的示例可以显示我的代码是什么样子的。.>> 我所知道的是,我使用事件来计算内核,事件精确地度量了内核在
GPU
上实际花费的时间所以我的问题和目标是: 1-我是否将上述事件调用的方式显示:是否只记录内核而忽略
主机
功能?
浏览 4
提问于2015-05-25
得票数 0
3
回答
AMD的OpenCL是否提供与CUDA的GPUDirect类似的功能?
、
、
、
、
如果图形在某一时刻丢失,这里描述了GPUDirect对从一台机器上的图形处理器获取数据并通过网络接口传输的影响:使用GPUDirect,图形处理器内存进入
主机
内存,然后直接进入网络接口卡。在没有GPUDirect的情况下,
GPU
内存在一个地址空间中访问
主机
内存,然后CPU必须复制内存到另一个
主机
内存地址空间中,然后它才能访问网卡。2)当两个
GPU
在同一PCIe总线上共享时,AMD
GPU
是否允许P2P内存传输。如果图形在某一时刻丢失,这里将描述GPUDirect对同一PCIe总线上的<e
浏览 8
提问于2012-02-15
得票数 12
回答已采纳
1
回答
GPU
能成为OpenCL程序的
主机
吗?
在OpenCL中建立并行程序的通常方法是编写C/C++程序,它设置设备(
GPU
和/或其他
GPU
)、内核和数据缓冲区,以便在设备上执行内核。这种情况的先决条件是什么? 是需要一个特殊的
GPU
,还是可以使用任何OpenCL功能的
GPU
?
浏览 4
提问于2012-07-13
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
百度云首批通过可信云GPU云主机认证,并摘得MAXP-最佳性能奖
SugarHosts糖果主机——精品Linux主机
VPS主机、云主机和虚拟主机,企业该如何选择?
电子围栏主机中总线报警主机与分线报警主机的区别
日本vps主机哪家好?日本vps主机推荐
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
实时音视频
活动推荐
运营活动
广告
关闭
领券