腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
如何在windows 10和ubuntu之间启动而不重新启动?
、
、
、
现在我的问题是,他想让班上的
学生
远程访问这些计算机,并能够根据需要在操作系统之间切换。如果他们必须重新启动,那么他们将失去连接,将无法选择他们想要引导到哪个操作系统。我已经了解了VirtualBox和VMware,但是在安装Windows 10作为
主机
,Ubuntu作为来宾时,它不允许VirtualBox访问
主机
的
gpu
。使用VMware是相同的问题,我无法让来宾读取
主机
的
gpu
而不是虚拟的
gpu
。谢谢!
浏览 0
提问于2016-06-01
得票数 0
回答已采纳
1
回答
如何在Windows上用Visual编写CUDA并将其部署到Linux?
、
、
、
、
这一进程如下:为了测试/运行这些项目,
学生
可以远程访问一台相当高端的机器.我没有物理访问它,但从我可以知道使用命令行,它有四个NVIDIA M40s。
学生
可以通过SSH远程访问这台机器。但问题是,这台机器正在运行Linux (Ubuntu14.04.5)。我试图弄清楚如何将
学生
在
浏览 2
提问于2016-09-18
得票数 1
回答已采纳
1
回答
如何避免25-30名
学生
在4 GeForce GTX 650 Ti s上运行简单的
GPU
内核?
、
所以我在CUDA教授速成班,教
学生
如何编写好的
GPU
代码(本例中为CUDA 7.5 )。它们将运行的内核将在2048x2048浮点矩阵上进行矩阵乘,有些内核涉及多个块和共享内存。
学生
们将进入具有
GPU
的服务器,在那里他们将编译和运行他们的程序。我不知道这有多可行,我所能想象的防止经济放缓的唯一步骤就是通过告诉
学生
传递cudaSetDevice()的值,将一组
学生
分配给不同的
GPU
。不过,测试并不多,因为只有一半左右的
学生
同时做实验,我们只需要介绍一些非
浏览 0
提问于2018-07-19
得票数 3
回答已采纳
1
回答
如何在两个
GPU
之间直接复制cudaArray?
、
、
假设我在
GPU
1中有一个
GPU
1,在
GPU
2中有另一个cudaArray。使用cudaMemcpyArrayToArray标志调用cudaMemcpyDeviceToDevice实际上会导致
GPU
1 cudaArray通过查看分析器复制到
主机
内存和复制到
GPU
2 cudaArray的
主机
内存。我尝试将
GPU
1 cudaArray复制到
GPU
1全局内存,并调用cudaMemcpyPeer将其复制到
GPU
2全局内存,然后
浏览 6
提问于2016-02-09
得票数 1
回答已采纳
1
回答
有可能有不同的开发虚拟机环境和访问图形卡吗?
、
、
、
测试应用程序的环境 首先,我使用VirtualBox为#1和#2在我的
主机
Windows中创建了VM环境,但是我不能在VM中运行,因为它不提供对图形卡的访问。
浏览 1
提问于2021-01-12
得票数 0
2
回答
使用Sun Grid引擎(SGE)调度
GPU
资源
、
、
、
我们有一组机器,每台都有4个
GPU
。每个作业应该能够要求1-4个
GPU
。这里有一个问题:我想让SGE告诉每个工作,它应该采取的
GPU
(s)。与CPU不同的是,如果一次只有一个进程访问
GPU
,则
GPU
的工作效果最好。所以我想:Job #2
GPU
: 2我遇到的问题是,SGE将允许我在每个节点上创建一个包含4个单元的
GPU
资源
浏览 6
提问于2012-05-11
得票数 4
回答已采纳
1
回答
不使用第二次
GPU
将AMD
GPU
传送到虚拟机
、
我阅读了一些关于将
GPU
传递到虚拟机的主题,但这些示例需要两个
GPU
(一个用于VM,一个用于
主机
操作系统)。现在,我发现有人提到将系统
GPU
中可用的单个文件传递给VM。这在Ubuntu有可能吗?
浏览 0
提问于2015-03-11
得票数 1
1
回答
CUDA分配字符串数组
、
、
、
每当我运行包含这些行的脚本时: HANDLE_ERROR(cudaMalloc((void **)&
gpu
_reads, inputDim * sizeof(char *))); HANDLE_ERROR(cudaMalloc((void **)&(
gpu
_reads[i]), (READS_LENGTH+ 1) * sizeof(char))); for(i=0; i<in
浏览 0
提问于2016-06-10
得票数 0
2
回答
在设备上分配CUDA变量之前,为什么需要在
主机
上声明CUDA变量
// declare
GPU
memory pointersfloat * d_out; cudaMalloc((void**) &d_in, ARRAY_BYTES);当
GPU
内存指针被声明时,它们会在
主机
上分配内存。我想不出为什么cudaMalloc需要知道
主机
内存d_in &
浏览 6
提问于2017-03-27
得票数 1
回答已采纳
0
回答
学生
gpu
有便宜的吗?
按小时计费,便宜的,我参加比赛
浏览 285
提问于2019-02-01
1
回答
GPU
与远程
主机
之间的RDMA
、
、
、
、
可以在
GPU
和远程
主机
之间执行RDMA操作吗? Nvidia网站上的在线文档只提到在
GPU
之间进行RDMA,而没有提到在
GPU
-
主机
之间执行RDMA的可能性。注意事项:我可以访问一个配备了K80
GPU
和Mellanox的集群。
浏览 5
提问于2017-05-25
得票数 3
回答已采纳
2
回答
相当于在VM运行Linux的情况下查看眼镜?
、
、
、
看玻璃是一个开放源码的应用程序,它允许使用配置了通通
GPU
的KVM,而无需附加物理监视器、键盘或鼠标。 在查找眼镜术语中,
主机
软件是运行在VM来宾(使用
GPU
的VM )中的外观玻璃的术语。客户端软件是在Linux
主机
上运行的部分的术语,显示呈现的帧。“外观眼镜”
主机
目前仅限于Windows,它涵盖了主要的用例:在Windows中运行只使用Windows的
GPU
重型软件,在Linux
主机
上显示结果。我有一个稍微不同的用例:我将我的增强器无头
GPU
从Lin
浏览 0
提问于2021-02-04
得票数 1
回答已采纳
2
回答
当
gpu
的内存已满时,它能使用交换空间吗?
、
、
我的笔记本电脑有一个集成的
gpu
,内存为1.5 GB。我试图运行代码,但它给出了错误的结果。所以我猜这是因为
gpu
的内存已经满了。我的问题是,当
gpu
的内存已满时,是否有一些“交换空间”(或虚拟内存)可供使用?我知道cpu有这个机制。但我对
gpu
不太确定。
浏览 0
提问于2014-12-13
得票数 2
1
回答
Cuda编译过程是如何进行的?
、
、
、
根据NVIDIAs编程指南: CUDA应用程序的源文件由传统的C++
主机
代码和
GPU
设备功能混合而成。CUDA编译轨迹将设备功能与
主机
代码分离,使用专有的NVIDIA编译器和汇编程序编译设备功能,使用可用的C++
主机
编译器编译
主机
代码,然后将编译后的
GPU
函数作为加脂二进制图像嵌入
主机
对象文件中。在链接阶段,添加了特定的CUDA运行库,以支持远程SPMD过程调用和提供显式
GPU
操作,如
GPU
内存缓冲区的分配和
主机
-<
浏览 14
提问于2022-02-02
得票数 0
1
回答
带有ArrayFire的多个
主机
线程
、
、
对于如何在ArrayFire中使用多个
主机
线程,我有一个新的问题。我们目前有一个高度并行的CPU专用代码,使用Open和mpi4py并行化.每个CPU线程执行大型矩阵乘法,通常与多个线程同时相乘。我们希望通过使用ArrayFire在单个
GPU
上执行矩阵乘法来提高性能。我很难找到答案,
浏览 3
提问于2018-01-11
得票数 2
回答已采纳
1
回答
Ubuntu: sshpass运行远程bash脚本
、
、
、
有人能告诉我,如何使用sshpass在远程
主机
上运行bash脚本吗?谢谢你的帮助和最诚挚的问候
浏览 0
提问于2017-04-18
得票数 0
1
回答
MPI中的投票操作
、
、
、
每台
主机
都知道一个布尔值(无论是
GPU
主机
还是CPU
主机
)。当i-th
主机
是a[i]==true
主机
时,我需要在每个包含
GPU
的
主机
上获取一个布尔数组。每个
主机
上的阵列必须相同。
浏览 19
提问于2021-11-12
得票数 0
1
回答
库达: cudaMallocManaged处理出口吗?
、
如果(在C++ +CUDA中) cudaMallocManaged()用于在
主机
和
GPU
内存中分配共享数组,而程序遇到(例如在
主机
代码中)一个exit(1),这是否会永久地在
GPU
中留下悬空内存?我猜答案是不基于的,但我不确定
GPU
是否有某种回收机制。
浏览 2
提问于2018-10-04
得票数 0
回答已采纳
4
回答
我想知道腾讯云是不是没有虚拟
主机
?
我想知道腾讯云是不是没有虚拟
主机
?在别的网站的
主机
快到了,想转到腾讯云,发现没有虚拟
主机
,云
主机
表示吃不消,是我没找到还是真没有虚拟
主机
?
浏览 1456
提问于2016-01-27
1
回答
当现代
gpu
内存耗尽时,如何利用磁盘上的交换空间?
、
、
、
后Pascal 可以分配比
GPU
内存更多的内存,这将自动在
GPU
内存和
主机
内存之间交换。 malloc(1<<20); 用cudaMalloc创建
GPU
内存占用率,留下1G
浏览 4
提问于2022-10-29
得票数 1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券