腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
在
具有
多个
GPU
的
单个
节点
上
远程
执行
、
我正在查阅关于
在
单个
节点
上
远程
运行hydra
的
文档。我正在寻找一些方法,在这些方法中,我可以运行本地计算机中
的
代码,并在GCP实例
上
运行它。 有什么建议吗?
浏览 23
提问于2021-08-04
得票数 0
回答已采纳
1
回答
TensorFlow matmul会在图形处理器
上
并行运行吗?(或任何
GPU
操作。)
我
的
问题是:在这里(matmul) (并在此基础
上
扩展:在所有类型
的
GPU
上
),它真的会做到这一点吗?我认为要做到这一点,它需要创建
多个
CUDA流,对吧?它会自动做到这一点(以及如何做到)?或者它们将在
GPU
上
按顺序
执行
? (请注意,对于这个简单
的
示例,您还可以通过连接w1和w2重写代码,然后
执行
单个
matmul,然后拆分。但这不是我
的
问题。)(相关
的</
浏览 1
提问于2018-07-24
得票数 2
1
回答
添加
GPU
卡会自动缩放tensorflow
的
使用吗?
、
、
、
假设我可以
在
我
的
带有tensorflow
的
GTX 1070卡
上
使用样本大小N、批处理大小M和网络深度L进行培训。现在,假设我想使用更大
的
样本2N和/或更深
的
网络2L进行训练,并摆脱内存错误。插入额外
的
GPU
卡会自动解决这个问题(假设所有
GPU
卡
的
总内存量足以容纳批处理及其渐变)吗?还是说纯粹
的
坦索弗洛是不可能
的
?我读到,有比特币或以太矿商,他们可以用
多个
浏览 4
提问于2017-07-15
得票数 2
回答已采纳
2
回答
使用CUDA
的
多
GPU
编程策略
我需要一些关于我将要承担
的
项目的建议。我计划使用CUDA 4.0
在
一个使用CUDA 4.0
的
多
GPU
节点
上
运行简单
的
内核(尚未决定,但我使用
的
是令人尴尬
的
并行内核),方法如下所示。其目的是通过
在
多
GPU
环境下启动CUDA提供
的
不同策略
的
内核来描述
节点
。
单个
主机线程-
多个
设备(共享context)Single主机
浏览 3
提问于2011-07-01
得票数 7
回答已采纳
2
回答
MPI +
GPU
:如何将这两种技术相结合
、
、
我
的
程序非常适合MPI。每个CPU
执行
自己
的
、特定
的
(复杂
的
)工作,生成一个double,然后我使用一个MPI_Reduce来乘以来自每个CPU
的
结果。我
在
谷歌附近,但找不到任何具体
的
东西。如何将MPI与
GPU
混合使用?是否有一种方法来查询和验证“哦, 这个等级是
GPU
,所有其他都是CPU”?有推荐
的
教程
浏览 0
提问于2012-04-09
得票数 10
回答已采纳
1
回答
在
vscode中,如何在slurm集群
的
计算
节点
上进行调试?
、
、
、
、
这是我
的
困境然后,应用带有
gpu
的
计算
节点
。我想知道有什么解决办法吗?
浏览 22
提问于2021-04-03
得票数 1
1
回答
从内核线程中查找设备ID
在
一个
具有
多个
GPU
的
节点
上
,
GPU
被从0向上分配一个唯一
的
id来区分它们。
在
CUDA中,是否有方法让运行在
GPU
上
的
内核代码中
的
线程知道它正在
执行
的
设备
的
id是什么?目前,我正在通过将每个
GPU
一个int传递到它
的
常量内存来完成这个任务,但是我想可能有一个
浏览 2
提问于2015-11-23
得票数 0
回答已采纳
2
回答
基于gdb
的
分布式软件调试
、
、
、
、
目前,我正在使用linux
在
C++中开发一个分布式软件,该软件
在
20
多个
节点
上
同时
执行
。因此,我发现最具挑战性
的
问题之一是如何调试它。我听说可以
在
单个
gdb会话中管理
多个
远程
会话(例如,
在
主
节点
上
创建gdb会话,
在
每个其他
节点
使用gdbserver启动程序),是否有可能?如果是的话,你能举个例子吗?你知道其他方
浏览 5
提问于2014-02-09
得票数 6
回答已采纳
1
回答
Kubernetes调度
GPU
-pods负载均衡
、
、
有一个
具有
n个
节点
的
kubernetes集群,其中一些
节点
上
安装了
多个
NVIDIA 1080Ti
GPU
卡。问题:当在安装了
GPU
的
节点
上调度启用了
GPU
的
pod时,我希望能
浏览 2
提问于2019-07-23
得票数 1
2
回答
云扳手中
的
提示USE_ADDITIONAL_PARALLELISM是做什么
的
在
文档中,我们可以在这里找到一个名为USE_ADDITIONAL_PARALLELISM
的
查询提示: 它是如何与
节点
的
数量进行扩展
的
?它需要一个从不同
的
拆分中选择数据
的
查
浏览 4
提问于2020-02-21
得票数 0
回答已采纳
1
回答
AKS中包含
具有
多个
vCPU
的
虚拟机
的
节点
池
、
、
假设我有一个包含8个vCPU
的
虚拟机
的
节点
池。我可以
在
我
的
yaml清单中指定哪个vCPU将
执行
该作业吗?我通过指定containers
在
具有
多个
GPU
的
节点
池中
执行
类似的操作。我需要对CPU
执行
同样
的
操作。
浏览 10
提问于2020-06-06
得票数 0
2
回答
使用Google Kubernetes引擎,是否可以拥有
具有
单个
区域
节点
池
的
多区域主集群?
、
、
我希望
在
多个
区域中拥有主
节点
,然后将
节点
池连接到
单个
区域,这样我就可以利用不同区域中不同
的
gpu
加速器类型。每当我尝试
在
多个
区域中创建一个集群时,它都会在每个区域中复制我
的
节点
。这对我来说真的很浪费,因为我一次只需要一个
gpu
。
浏览 19
提问于2019-01-27
得票数 0
回答已采纳
1
回答
CALayer选择哪个
GPU
、
、
、
、
在
具有
多个
GPU
的
机器
上
,是否可以编程地告诉CALayer使用哪个
GPU
? 我似乎无法在网上或苹果
的
文档中找到任何有关这方面的信息。如果您不能选择,如何确定合适
的
GPU
?
浏览 0
提问于2020-01-30
得票数 0
回答已采纳
1
回答
多项式
上
的
Hadoop融合
我需要使用hadoop
在
多
节点
集群
上
挂载HDFS。我怎样才能做到这一点? 我已经成功地
在
单
节点
集群上部署了fuse,但我怀疑它能否
在
多
节点
上工作。有人能把这件事弄清楚吗?
浏览 3
提问于2014-03-18
得票数 0
回答已采纳
2
回答
使用Jenkins作为中心设置selenium网格
节点
的
最佳方法?
、
这是一个开放
的
问题,如果有更好
的
地方张贴它,请告诉我。 我有大量
的
selenium测试,我想使用Jenkins运行。目前,我让Jenkins运行selenium网格插件,从而充当集线器,让运行selenium服务器
的
Windows VM作为我使用
远程
桌面访问
的
节点
(Jenkins
在
linux中运行,我需要使用IE进行测试,因此不能使用Jenkins框作为
节点
)。我试图将selenium服务器作为一个服务运行,但这是行不通
的</
浏览 0
提问于2017-08-21
得票数 3
2
回答
在
分布式计算中,世界
的
大小和排名是什么?
、
、
、
我一直
在
阅读和,其最终目标是为分布式计算编写脚本(运行PyTorch),但这些概念使我感到困惑。让我们假设我们有一个
具有
4个
GPU
的
节点
,并且我们希望在这4个
GPU
上
运行我们
的
脚本(即每个
GPU
一个进程)。在这种情况下,世界排名和排名分别是多少?我经常找到关于世界规模
的
解释:工作所涉及
的
过程总数,所以我假设在我们
的
例子中这是四个,但是排名呢? 为了进一步解释它,另一个
具有<
浏览 1
提问于2019-10-07
得票数 29
回答已采纳
1
回答
理解qsub中
的
-t选项
、
、
关于-t选项
在
使用qsub提交作业时所做
的
工作,文档有点不清楚。 下面是一个出错
的
例子,我请求了2个
节点
,每个
节点
8个进程,以及一个由16个作业组成
的
数组。我原本希望它能自然地分布在这两个
节点
浏览 0
提问于2016-06-12
得票数 3
回答已采纳
2
回答
CUDA是否允许同一
gpu
上
同时运行
多个
应用程序?
、
我有英伟达
的
Tesla K20m
GPU
卡。
在
CUDA 5.0中,允许
在
同一图形处理器上来自同一应用程序
的
多个
进程。CUDA是否允许
在
同一
GPU
上
同时
执行
不同
的
应用程序?
浏览 1
提问于2014-09-22
得票数 3
1
回答
如何在dask分布
的
单个
工作人员
上
管理
GPU
资源?
、
我有一个关于
的
问题。 假设我想运行一组任务,每个任务运行在不同数量
的
GPU
上
,例如,一个任务运行在2个
GPU
(类型A)
上
,而其他几个任务运行在1个
GPU
(B类型)
上
。我
的
理解是,可以使用"resources“属性设置
多个
工作人员。例如,我可能总共拥有3个
GPU
,并设置了一个带有资源变量"gpus=2“
的
工作人员和一个带有"gpus=1”
的</e
浏览 5
提问于2017-05-20
得票数 4
回答已采纳
1
回答
在
Windows 7中使用开放式MPI和CUDA
、
、
、
、
我试图运行一个简单
的
CUDA程序,它使用OpenMPIv1.6.1 (64位)
在
Windows 7专业64位计算机中查询
节点
中
的
GPU
数量。当我
在
根
节点
中运行应用程序时,将得到正确
的
GPU
计数。但是,当同一个应用程序尝试使用Open
在
不同
的
节点
中
远程
运行时,
GPU
计数为0,即显示为 根和
具有
CUDA 2.1功能
的</em
浏览 4
提问于2012-09-18
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
单个GPU可训练数十亿参数模型:异构深度学习训练技术ZeRO-Offload做到了
GPU捉襟见肘还想训练大批量模型?谁说不可以
TensorFlow分布式计算机制解读:以数据并行为重
手把手教你从系统层面优化深度学习计算
如何从系统层面优化深度学习计算?
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券