腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
2
回答
Google Compute Engine:停机实例的
GPU
是否
收费
?
google-compute-engine
在上,它说: 连接到实例的
GPU
是否计入“虚拟机正在使用的资源”
浏览 232
提问于2017-03-26
得票数 10
2
回答
解绑空置不使用才
收费
?
费用中心
如题如题如题如题如题如题
浏览 958
提问于2017-02-16
2
回答
使用基本的Amazon似乎使用
GPU
AMI?
amazon-web-services
、
amazon-linux
只是好奇为什么它实际上使用的是gp2部分,据我所知,它用于NVIDIA/
GPU
实例,而我们没有使用(我们在t2.小国上)。这是否意味着我们要为这张照片
收费
?或者,只有当我们使用
GPU
实例类型时,我们才会被
收费
。
浏览 0
提问于2017-07-19
得票数 0
回答已采纳
2
回答
创建GCP深度学习VM图像中的错误
google-cloud-platform
、
google-compute-engine
我得到以下错误时,试图创建GCP深入学习VM实例使用我的免费$300学分。我尝试过多个服务器位置(美国西部、美国中部等)。 tensorflow-1具有资源警告tensorflow-1-vm:{“ResourceType”:“Compute.v1.instation”,"ResourceErrorCode":"403","ResourceErrorMessage":{"code":403,“errors”:{“ResourceErrorMessage”:“usageLimits”,“message”:“配额'GPUS_AL
浏览 0
提问于2019-02-21
得票数 1
3
回答
对PyTorch模型使用多处理CPU推断的最佳方法是什么?
python
、
multiprocessing
、
pytorch
GPU
太贵了,我无法用它来推断。 为此,我能利用多进程/并行CPU推断吗?如果是,最佳做法是什么?如果没有,是否有云选项只对我所做的
GPU
查询
收费
,而不是连续运行
GPU
实例?
浏览 4
提问于2019-03-20
得票数 4
1
回答
我可以暂停/冻结一个AWS EC2专用
主机
以降低成本吗?
amazon-web-services
、
amazon-ec2
为了节省成本,我在不需要EC2实例时停止它,但是我的专用
主机
仍然在运行并产生成本。 是否有一种方法可以阻止类似于EC2的专用
主机
?我可以发布一个专用的
主机
,但是对于mac1实例,它在开始的24小时内向我
收费
,所以这不值得。
浏览 3
提问于2021-11-03
得票数 0
回答已采纳
8
回答
腾讯云服务器可以玩游戏吗?
云服务器
比如lol,穿越火线,火线精英等
浏览 12600
提问于2018-04-22
2
回答
为什么服务器关机了还在扣费?
云服务器
把欠的费 补了后又欠费了 没开什么服务啊
浏览 786
提问于2019-07-26
1
回答
如何在两个
GPU
之间直接复制cudaArray?
memory-management
、
cuda
、
gpu
假设我在
GPU
1中有一个
GPU
1,在
GPU
2中有另一个cudaArray。使用cudaMemcpyArrayToArray标志调用cudaMemcpyDeviceToDevice实际上会导致
GPU
1 cudaArray通过查看分析器复制到
主机
内存和复制到
GPU
2 cudaArray的
主机
内存。我尝试将
GPU
1 cudaArray复制到
GPU
1全局内存,并调用cudaMemcpyPeer将其复制到
GPU
2全局内存,然后
浏览 6
提问于2016-02-09
得票数 1
回答已采纳
2
回答
使用Sun Grid引擎(SGE)调度
GPU
资源
gpu
、
gpgpu
、
sungridengine
、
multiple-gpu
我们有一组机器,每台都有4个
GPU
。每个作业应该能够要求1-4个
GPU
。这里有一个问题:我想让SGE告诉每个工作,它应该采取的
GPU
(s)。与CPU不同的是,如果一次只有一个进程访问
GPU
,则
GPU
的工作效果最好。所以我想:Job #2
GPU
: 2我遇到的问题是,SGE将允许我在每个节点上创建一个包含4个单元的
GPU
资源
浏览 6
提问于2012-05-11
得票数 4
回答已采纳
1
回答
有可能有不同的开发虚拟机环境和访问图形卡吗?
virtual-machine
、
virtualbox
、
virtualization
、
hypervisor
测试应用程序的环境 首先,我使用VirtualBox为#1和#2在我的
主机
Windows中创建了VM环境,但是我不能在VM中运行,因为它不提供对图形卡的访问。
浏览 1
提问于2021-01-12
得票数 0
1
回答
不使用第二次
GPU
将AMD
GPU
传送到虚拟机
gpu
、
virtualization
我阅读了一些关于将
GPU
传递到虚拟机的主题,但这些示例需要两个
GPU
(一个用于VM,一个用于
主机
操作系统)。现在,我发现有人提到将系统
GPU
中可用的单个文件传递给VM。这在Ubuntu有可能吗?
浏览 0
提问于2015-03-11
得票数 1
1
回答
CUDA分配字符串数组
arrays
、
string
、
cuda
、
dynamic-memory-allocation
每当我运行包含这些行的脚本时: HANDLE_ERROR(cudaMalloc((void **)&
gpu
_reads, inputDim * sizeof(char *))); HANDLE_ERROR(cudaMalloc((void **)&(
gpu
_reads[i]), (READS_LENGTH+ 1) * sizeof(char))); for(i=0; i<in
浏览 0
提问于2016-06-10
得票数 0
2
回答
用于机器学习的外部
GPU
与内部
GPU
performance
、
gpu
使用外部
GPU
(例如,通过雷电连接)与使用内部
GPU
进行机器学习的利弊是什么?
浏览 0
提问于2018-02-11
得票数 3
2
回答
在设备上分配CUDA变量之前,为什么需要在
主机
上声明CUDA变量
cuda
// declare
GPU
memory pointersfloat * d_out; cudaMalloc((void**) &d_in, ARRAY_BYTES);当
GPU
内存指针被声明时,它们会在
主机
上分配内存。我想不出为什么cudaMalloc需要知道
主机
内存d_in &
浏览 6
提问于2017-03-27
得票数 1
回答已采纳
1
回答
GPU
与远程
主机
之间的RDMA
cuda
、
gpu
、
nvidia
、
infiniband
、
rdma
可以在
GPU
和远程
主机
之间执行RDMA操作吗? Nvidia网站上的在线文档只提到在
GPU
之间进行RDMA,而没有提到在
GPU
-
主机
之间执行RDMA的可能性。注意事项:我可以访问一个配备了K80
GPU
和Mellanox的集群。
浏览 5
提问于2017-05-25
得票数 3
回答已采纳
2
回答
相当于在VM运行Linux的情况下查看眼镜?
virtual-machine
、
kvm
、
gpu
、
gpu-passthrough
看玻璃是一个开放源码的应用程序,它允许使用配置了通通
GPU
的KVM,而无需附加物理监视器、键盘或鼠标。 在查找眼镜术语中,
主机
软件是运行在VM来宾(使用
GPU
的VM )中的外观玻璃的术语。客户端软件是在Linux
主机
上运行的部分的术语,显示呈现的帧。“外观眼镜”
主机
目前仅限于Windows,它涵盖了主要的用例:在Windows中运行只使用Windows的
GPU
重型软件,在Linux
主机
上显示结果。我有一个稍微不同的用例:我将我的增强器无头
GPU
从Lin
浏览 0
提问于2021-02-04
得票数 1
回答已采纳
2
回答
当
gpu
的内存已满时,它能使用交换空间吗?
memory-management
、
opencl
、
gpgpu
我的笔记本电脑有一个集成的
gpu
,内存为1.5 GB。我试图运行代码,但它给出了错误的结果。所以我猜这是因为
gpu
的内存已经满了。我的问题是,当
gpu
的内存已满时,是否有一些“交换空间”(或虚拟内存)可供使用?我知道cpu有这个机制。但我对
gpu
不太确定。
浏览 0
提问于2014-12-13
得票数 2
1
回答
Cuda编译过程是如何进行的?
compilation
、
cuda
、
nvcc
、
ptx
根据NVIDIAs编程指南: CUDA应用程序的源文件由传统的C++
主机
代码和
GPU
设备功能混合而成。CUDA编译轨迹将设备功能与
主机
代码分离,使用专有的NVIDIA编译器和汇编程序编译设备功能,使用可用的C++
主机
编译器编译
主机
代码,然后将编译后的
GPU
函数作为加脂二进制图像嵌入
主机
对象文件中。在链接阶段,添加了特定的CUDA运行库,以支持远程SPMD过程调用和提供显式
GPU
操作,如
GPU
内存缓冲区的分配和
主机
-<
浏览 14
提问于2022-02-02
得票数 0
1
回答
带有ArrayFire的多个
主机
线程
python
、
gpgpu
、
arrayfire
对于如何在ArrayFire中使用多个
主机
线程,我有一个新的问题。我们目前有一个高度并行的CPU专用代码,使用Open和mpi4py并行化.每个CPU线程执行大型矩阵乘法,通常与多个线程同时相乘。我们希望通过使用ArrayFire在单个
GPU
上执行矩阵乘法来提高性能。我很难找到答案,
浏览 3
提问于2018-01-11
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券