腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
相当于在VM运行Linux的情况下查看眼镜?
virtual-machine
、
kvm
、
gpu
、
gpu-passthrough
看玻璃是一个开放源码的应用程序,它允许使用配置了通通
GPU
的KVM,而无需附加物理监视器、键盘或鼠标。 在查找眼镜术语中,
主机
软件是运行在VM来宾(使用
GPU
的VM )中的外观玻璃的术语。客户端软件是在Linux
主机
上运行的部分的术语,显示呈现的帧。“外观眼镜”
主机
目前仅限于Windows,它涵盖了主要的
用
例:在Windows中运行只使用Windows的
GPU
重型软件,在Linux
主机
上显示结果。我有一个稍微不同的
用
例:我将我的增强器
浏览 0
提问于2021-02-04
得票数 1
回答已采纳
1
回答
EGL没有发现符合最小标准的合适配置
android
、
configuration
、
unity3d
、
avd
、
egl
我该
怎么
办?
浏览 2
提问于2014-09-16
得票数 1
1
回答
当现代
gpu
内存耗尽时,如何利用磁盘上的交换空间?
cuda
、
operating-system
、
virtualization
、
swapfile
后Pascal 可以分配比
GPU
内存更多的内存,这将自动在
GPU
内存和
主机
内存之间交换。 malloc(1<<20);
用
cudaMalloc创建
浏览 4
提问于2022-10-29
得票数 1
回答已采纳
2
回答
如何在ubuntu 12.10中加速Android仿真程序
android
、
emulation
在Ubuntu12.10上,Android模拟器太慢了,我
怎么
才能加快速度呢? 我
用
adt-bundle-linux-x86-20130219安装了SDK。我尝试使用
主机
GPU
并获得更多的速度,但当我启动它,仍然有一些滞后。
浏览 0
提问于2013-04-21
得票数 6
1
回答
OpenCV 3.x -为UMat使用已分配的缓冲区(使用Cuda或OpenCL)
mapping
、
gpu
、
opencv3.0
我一直在寻找一种方法,可以
用
已经分配的
GPU
缓冲区(来自OpenCL,Cuda或OpenGL)的数据初始化cv::Umat,而不必将数据复制回CPU端。理想情况下,不涉及复制操作,UMat会“包裹”
GPU
上已经存在的数据(这是以前使用CUDA/OpenCL/OpenGL分配的)。如果这不起作用,也可以直接将
GPU
上的OpenCL/CUDA缓冲区复制到UMat中,而不将数据传输回
主机
端(因为
GPU
设备上的复制操作比CPU端快得多)。有没有人已经这么做了,或者知
浏览 0
提问于2017-08-28
得票数 0
1
回答
在CUDA设备中可以使用SAL(科学算法库)吗?
c
、
cuda
、
gpu
我有一些
主机
代码,其中包含了SAL函数。SAL函数用于处理大数据。我想调整CUDA设备的相同功能,并分析
主机
和设备的执行时间。但是既然SAL函数是用于
主机
/CPU的,那么如何在
GPU
上允许这些函数,或者可以从
GPU
一侧调用SAL函数呢?现在我想在
GPU
方面适应这一点。
怎么
做?或者还有其他比SAL快得多的库?
浏览 0
提问于2015-03-18
得票数 0
回答已采纳
1
回答
为什么在显示器上显示之前,在cuda中使用in-kernel-printf将字符串输出到
主机
?
c
、
cuda
、
gpu
、
nvidia
第117页上的CUDA编程指南v5.5提到,传递给内核中使用的printf的字符串被输出到
主机
上的流。我的疑问是,为什么需要将此传递给
主机
?为什么不必要地转到
主机
,然后再将其发送回图形卡,以便在显示器上显示?
浏览 0
提问于2013-10-05
得票数 0
1
回答
码头机和谷歌计算引擎:
GPU
?
google-compute-engine
、
docker-machine
从码头机械GCE驱动程序的文档上看,似乎不可能产生一台带有
GPU
的机器。与AWS不同,在AWS中,
GPU
附带了一些特定的机器类型,因此Docker也支持这种类型,而在GCP中,您必须添加开关才能使用
GPU
旋转VM。有人知道如何告诉Docker在Google引擎中提供一个带有
GPU
的虚拟机吗?
浏览 0
提问于2018-09-27
得票数 3
1
回答
不使用第二次
GPU
将AMD
GPU
传送到虚拟机
gpu
、
virtualization
我阅读了一些关于将
GPU
传递到虚拟机的主题,但这些示例需要两个
GPU
(一个用于VM,一个用于
主机
操作系统)。现在,我发现有人提到将系统
GPU
中可用的单个文件传递给VM。这在Ubuntu有可能吗?我要
怎么
做?
浏览 0
提问于2015-03-11
得票数 1
8
回答
腾讯云的建站
主机
是不是垃圾产品? 垃圾服务!?
官方文档
浏览 1281
提问于2018-05-26
1
回答
Vulkan写描述符是如何设置到
GPU
的?
vulkan
由于描述符本质上是对资源的指针/引用,因此从概念上设置
主机
端(CPU ),以便告诉设备(
GPU
)每个描述符指向(设备本地/
GPU
)缓冲区/内存,这是如何发生的?我之所以这么问,是因为程序员通常知道数据从
主机
传输到设备的确切时间,因为数据被记录到命令缓冲区,然后提交到队列中。这到底是
怎么
回事? 描述符集在描述符池中分配,描述符池与命令缓冲池一样驻留在
主机
端.因此,从本质上说,在记录命令时,您正在将命令写入
主机
端内存,直到提交命令缓冲区。vkU
浏览 9
提问于2022-03-17
得票数 2
1
回答
虚拟化以切换系统而无需重新引导
linux
、
windows
、
virtual-machine
、
kvm
我需要:共享磁盘空间“易”系统切换集成
GPU
的Intel CPU32 GB内存(足以容纳2个系统我目前的想法是:Linux以KVM为
主机
为Win。当Linux不再需要时,重新分配资源以获得胜利。 当只需
浏览 0
提问于2016-09-24
得票数 2
1
回答
在Google Cloud VM中使用
GPU
与Container和Container优化操作系统
google-cloud-platform
、
gpu
、
google-compute-engine
、
google-container-os
我想在Google Compute Engine上运行一个带有
GPU
的自定义Docker镜像。我已经构建了镜像并将其推送到Google Container Registry。在Google Cloud Engine中为
主机
使用容器优化操作系统似乎是合乎逻辑的,因为除了Docker、Nvidia
GPU
驱动程序和nvidia-container-runtime之外,我不需要在
主机
上安装任何额外的软件我设法
用
this solution安装了nvidia驱动程序。 但是如果没有nvidia-container运
浏览 22
提问于2020-04-07
得票数 2
2
回答
库达核函数花费的时间比等效的
主机
函数长
c
、
cuda
、
gpgpu
-Plug,您正在处理的计算机上的代码打印的时序数字,并报告盈亏平衡点(当cpu版本与
gpu
版本一样快时)。我遇到的问题是,我的内核花费的时间比等效函数的
主机
版本长得多(我将在下面发布这两篇文章),这样就没有盈亏平衡点了。我得到的数字如下。done with copy to
gpu
kerneldone with
gpu
shift cypher kerneldo
浏览 4
提问于2011-08-27
得票数 1
回答已采纳
1
回答
如何在病毒管理器中启用vIOMMU?
linux
、
virtualization
、
kvm-virtualization
、
qemu
我计划
用
GPU
设备执行嵌套虚拟化。我已经运行了来宾Ubuntu,并通过在
主机
上启用intel_iommu并将NVIDIA配置为vfio-pci设备,将
GPU
映射到它。但是,现在我想在客户机中运行另一个VM,让我们将运行在
主机
上的客户机称为L1,在来宾上运行的客户机以L2的身份运行,我希望
GPU
可以被L2来宾访问,我遇到了Q35 Qemu芯片组支持的vIOMMU,如何在L1来宾上启用IOMMU,以便我可以直接将
gpu
传递给L2来宾?
浏览 0
提问于2020-02-25
得票数 2
2
回答
如何确定OpenCl CPU设备和
GPU
设备是并行运行的?
opencl
因此,首先,我
用
TASK1和NDRangeKernel for job1调用NDRangeKernel作为OpenCl CPU设备,然后
主机
就可以立即进行控制。clEnqueueNDRangeKernel(command_queue_amd, icm_kernel_amd, 1, NULL, &glob, &local, 0, NULL, NULL); 然后,TASK2
主机
可以使用
GPU
内核1为job2调用
gpu
设备的NDRangeKernel,然后为job3调用
gpu
内
浏览 0
提问于2014-07-21
得票数 1
回答已采纳
2
回答
Ubuntu22.04.1 LTS根本找不到Nvidia驱动程序
drivers
、
nvidia
、
windows-subsystem-for-linux
、
gpu
capabilities: bus_master cap_list resources: irq:0|-------------------------------+----------------------+----------------------+| Fan Temp Perf Pwr:Usage/Cap| Memory
浏览 0
提问于2022-10-05
得票数 2
回答已采纳
1
回答
如何在两个
GPU
之间直接复制cudaArray?
memory-management
、
cuda
、
gpu
假设我在
GPU
1中有一个
GPU
1,在
GPU
2中有另一个cudaArray。使用cudaMemcpyArrayToArray标志调用cudaMemcpyDeviceToDevice实际上会导致
GPU
1 cudaArray通过查看分析器复制到
主机
内存和复制到
GPU
2 cudaArray的
主机
内存。我尝试将
GPU
1 cudaArray复制到
GPU
1全局内存,并调用cudaMemcpyPeer将其复制到
GPU
2全局内存,然后
浏览 6
提问于2016-02-09
得票数 1
回答已采纳
1
回答
OpenCL中的GLSL一致变量等价
opengl
、
glsl
、
opencl
、
gpu
、
gpgpu
用
OpenCL术语表示,
GPU
内存中的统一变量在哪里?它们什么时候从
主机
传递到
GPU
? 我知道答案可能取决于具体的OpenGL实现,但我不知道是否有一些规则或合理的假设。
浏览 2
提问于2014-01-31
得票数 4
回答已采纳
2
回答
主机
如何在汇编级将OpenCL内核和参数发送到图形处理器?
opencl
、
gpu
现在,
主机
程序如何告诉
GPU
要运行的指令。例如,我
用
的是Radeon Pro 460的2017 MBP。在汇编级,在
主机
进程中调用哪些指令来告诉
GPU
“这就是您要运行的内容”。我是一名工具链工程师,我对
GPU
编程的工具链方面很好奇,但我发现很难找到好的资源。
浏览 2
提问于2018-08-26
得票数 1
点击加载更多
热门
标签
更多标签
云服务器
对象存储
ICP备案
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券