腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
colocate_gradients_with_ops论点在TensorFlow?
、
我试图理解这个论点的作用,AdamOptimizer的的compute_gradients方法这样说- colocate_gradients_with_ops:如果是的话,试着用相应的op来
计算
渐变。
浏览 3
提问于2018-02-12
得票数 3
回答已采纳
1
回答
腾讯云
GPU
服务
器不能联外网吗?
浏览 1315
提问于2019-05-24
2
回答
两个gpus是如何工作的?
、
、
我目前有一个高端
GPU
安装在我的
服务
器-我正在考虑安装一个廉价的
GPU
,以支持显示器。 原因是
服务
器正在为OpenCL使用高端
GPU
,而我希望保留它的资源,只用于
计算
,而不提供监视器。我可以安装一个便宜的
GPU
,如ZOTAC GeForce GT 610 (512 MB),并使用它作为显示器的主
gpu
,然后高端
gpu
将免费
计算
。我问这是因为我以前没有尝试过,我不知道操作系统(Windows )是如何看到这两张卡的,如
浏览 0
提问于2012-08-25
得票数 1
回答已采纳
1
回答
CPU在建立数据自动化系统时有多重要?
、
、
、
CUDA是以任何方式依赖CPU,还是一种黑白的东西,一旦你开始执行CUDA,在
GPU
上一切都是100%的?或者它是否有某种平衡/混合? 最基本的问题是,我们能买到最便宜的CPU并把它拿走吗?
浏览 0
提问于2014-06-18
得票数 2
1
回答
使用
gpu
通过google colab连接到本地运行时
、
、
我的目标是通过jupyter笔记本从本地
计算
机连接到goocle colab
gpu
pip install jupyter_http_over_ws所以我已经从我的机器连接到Colab,但goal反之亦然,以便在我的本地机器上获得
GPU
浏览 8
提问于2021-04-24
得票数 1
1
回答
GPU
在参数
服务
器上进行数据并行训练是否有效?
、
、
、
在上,我猜
GPU
实例不一定对参数
服务
器有效,因为参数
服务
器只保留值,不运行矩阵乘法等任何
计算
。因此,我认为的示例配置(参数
服务
器使用CPU,其他
服务
器使用
GPU
)具有良好的成本性能: scaleTier: CUSTOM parameterServerType: standard_cpu wo
浏览 3
提问于2017-04-14
得票数 0
回答已采纳
1
回答
使用Nvidia
GPU
节点在Kubernetes上运行一个例子
、
、
我正在尝试用Nvidia
GPU
节点/奴隶来设置Kubernetes。我遵循了的指南,并且能够让节点加入集群。我尝试了下面的kubeadm示例pod:kind: Pod name:
gpu
-pod containers: extendedResources: resources: nvid
浏览 3
提问于2018-08-07
得票数 1
回答已采纳
2
回答
为远程登录的用户启动虚拟X
服务
器
、
、
我有一个
服务
器(CentOS6),它有一个ATI。为了让用户能够访问这个
GPU
来使用OpenCL进行
计算
,他们需要不幸地打开一个X会话(对ATI驱动程序的限制)。这些用户将向
服务
器发送ssh。他们如何能够在
GPU
上启动一个“虚拟”X会话,以便能够访问它进行
计算
?(ssh -X
服务
器和启动像xclock之类的应用程序都不会在
GPU
上启动Xsession .) 提前谢谢。
浏览 0
提问于2012-08-01
得票数 0
1
回答
联网CUDA
GPU
、
在通过云场景的请求/响应中,是否可以让多台低端
计算
机分别对位于中央
服务
器上的
GPU
进行CUDA调用?让这些低端
计算
机拥有一个“虚拟”的
GPU
。
浏览 2
提问于2013-02-02
得票数 1
回答已采纳
1
回答
没有
GPU
的
服务
器适合远程桌面吗?
、
、
、
我想买一个
服务
器4核心英特尔XeonE3-1220 v5 (16 GB内存),但没有
GPU
。 我们需要
GPU
在
服务
器端,以正常显示桌面屏幕通过remore桌面,还是我们需要
GPU
在客户端?还是两边的?
浏览 0
提问于2017-07-31
得票数 1
回答已采纳
2
回答
X11转发是如何工作的?
、
、
我应该使用
GPU
密集型应用程序(游戏)-我应该在哪里安装
GPU
(
服务
器端/客户端)?当然,如果
服务
器正在运行CUDA / openCL应用程序,那么它将需要
GPU
,但是显示呢?
浏览 0
提问于2012-11-03
得票数 8
回答已采纳
2
回答
CUDA与web开发
显然,
GPU
的每个核心都可以处理一个请求,而不是一个主处理器(系统的CPU)处理所有请求。从表面上看,这似乎是可能的,也许使用
GPU
+ Redis数据库中的模板在
GPU
GDDR5中?
浏览 4
提问于2010-10-21
得票数 1
回答已采纳
3
回答
gpu
工作节点无法加入群集
、
、
、
我有一个带有两个ASG的EKS设置(v1.16):一个用于
计算
("c5.9xlarge"),另一个用于
gpu
("p3.2xlarge")。
gpu
按预期工作,并在必要时扩展每个K8S,问题是新创建的
gpu
实例无法被主
服务
器识别,并且正在运行的kubectl get nodes不会发出任何信息。我仔细检查了标签和标签,并将它们与“
计算
”进行了比较。两者的配置几乎是相似的,唯一的区别是
gpu
节点组有很少的额外标记。由于我使用的是eks
浏览 65
提问于2020-12-30
得票数 0
1
回答
双
GPU
中的内存使用(多
GPU
)
、
、
我正在使用两个配置相同的
GPU
作为我的高性能
GPU
计算
使用OpenCL。其中一个卡是为显示目的连接的,两个程序compiz和x
服务
器总是使用大约200-300 MB的内存。我的问题是,当使用这些
GPU
进行
计算
时,我只能使用
GPU
中的部分内存,用于显示目的,而第二个
GPU
则可以使用整个全局内存。在显示
GPU
的情况下,我只能使用128 MB进行
计算
,而其他的则可以使用完整的503 MB进行
计算
。 根据页
浏览 7
提问于2016-06-02
得票数 0
1
回答
Gunicorn工作者,用于
GPU
任务的线程,以增加并发/并行性。
、
、
、
、
我正在使用烧瓶与Gunicorn实现一个人工智能
服务
器。
服务
器接收HTTP请求并调用该算法(用py手电筒构建)。
计算
在nvidia
GPU
上运行。本机有8 vCPUs,20 GB内存,1
GPU
,12 GB内存。具体问题是 如何增加concurrency/parallelism?Do,我必须指
浏览 5
提问于2021-02-09
得票数 0
1
回答
基于RDP的Windows
服务
器上的
GPU
加速
、
、
、
、
我试图找出是否有可能使用一个
GPU
运行Windows,该
GPU
在所有RDP客户端之间共享,这样人们就可以使用需要
GPU
加速的UI启动一些程序如果工作负载直接在物理Windows主机上运行,则不需要图形虚拟化;您的应用程序和
服务
已经可以访问Windows Server中本机支持的
GPU</
浏览 0
提问于2022-04-06
得票数 3
1
回答
从
GPU
到远程主机的GPUDirect RDMA传输
、
、
、
设想情况: 我有两台机器,一台客户机和一台
服务
器,与Infiniband连接。
服务
器机器有一个NVIDIA Fermi
GPU
,但是客户端机器没有
GPU
。我有一个运行在
GPU
机器上的应用程序,它使用
GPU
进行一些
计算
。
GPU
上的结果数据从来不被
服务
器使用,而是直接发送到客户端机器,无需任何处理。现在,我正在做一个cudaMemcpy,将数据从
GPU
获取到
服务
器的系统内存,然后通过套接字发送到客户端。
浏览 6
提问于2012-08-14
得票数 10
回答已采纳
1
回答
带有
GPU
工作进程错误的ML-Engine
您好,我正在使用ML Engine和一个自定义层,该层由一个parameter组成,四个工人,每个工人都有一个complex_m和一个complex_m作为参数
服务
器。我没有在任何地方使用tf.Device()函数,在云中,我认为如果有可用的图形处理器,设备就会自动设置。
浏览 18
提问于2017-06-28
得票数 0
1
回答
如果
服务
器是无头的(CentOS 7),是否有办法使
GPU
成为额外的CPU核心?
、
、
、
、
我有一个没有图形界面的centOS
服务
器。我只通过ssh连接到它。因此,
GPU
的使用可能并不多。我想让
服务
器使用它作为额外的CPU核心。这个是可能的吗?我该怎么做?
浏览 0
提问于2016-05-01
得票数 -1
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券