腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
使用Tensorflow的CPU/
GPU
内存使用量
、
、
我想运行一个在
服务器
上也使用Tensorflow的Python脚本。当我在没有会话配置的情况下运行它时,
进程
会分配所有
GPU
内存,从而阻止任何其他
进程
访问
GPU
。
服务器
规范如下: 在Tensorfl
浏览 9
提问于2017-05-16
得票数 1
2
回答
如何减少CUDA上下文大小(多
进程
服务)
、
、
、
、
减少了
GPU
上下文存储现在,回到这个例子。没有议员:议员们:不幸的是,每个
进程
仍然占用几乎相同的内存量(~300 of )
浏览 6
提问于2019-12-19
得票数 0
回答已采纳
1
回答
如何在Ubuntu上获取
进程
的最大
GPU
内存使用率?(适用于Nvidia
GPU
)
、
、
、
我有一个安装了Ubuntu 16.04的
服务器
。它有一个K80图形处理器。多个
进程
正在使用
GPU
。目前,我每隔100ms查询一次信息,但这只是对
GPU
使用率进行采样,可能会跳过
GPU
使用率峰值。对于给定的PID
进程
,有没有可靠的方法来获得最大的
G
浏览 1
提问于2017-03-15
得票数 0
1
回答
防止
进程
在
GPU
上运行
、
我还没有找到一种直接的方法来阻止
进程
X在
GPU
上运行。在我的例子中,我想将compiz窗口管理器和其他一些
进程
排除在我的nVidia
GPU
上。的确,应用程序配置文件(在nVidia X
服务器
设置中),但使用它,您可以微调一些OpenGL设置,而不是完全排除
进程
在
GPU
上运行。谢谢!
浏览 0
提问于2018-04-23
得票数 1
回答已采纳
1
回答
当我使用CUDA6.5 + MPI时,是否必须使用MPS (多
进程
服务)?
、
、
、
、
由链接编写: 1.1.1.MPS 多
进程
服务(MPS)是CUDA应用程序编程接口(API)的另一种二进制兼容的实现。MPS运行时架构的设计是为了透明地使多
进程
数据自动化系统()应用程序(典型的MPI作业)能够在最新的NVIDIA (开普勒) Tesla和Quadro
GPU
上使用Hyper-Q功能。超级Q允许在同一个
GPU
上并发处理CUDA内核;当
GPU
计算能力被单个应用
进程
未充分利用时,这将有利于性能。当使用CUDA6.5 + MPI (OpenMPI / I
浏览 4
提问于2014-09-07
得票数 1
回答已采纳
2
回答
一个
GPU
可以在CPU的多个内核之间共享吗?
、
、
由于这些乘法运算彼此独立,因此内核可以将它们卸载到
GPU
上。现在,我有几个这样的核心正在被MPI程序使用。所以,我的问题是,有没有可能在这些多核之间共享
GPU
,以便每个核可以将矩阵乘法卸载到相同的
GPU
?
浏览 1
提问于2014-10-21
得票数 2
1
回答
获取/dev/nvidia*和nvidia-smi
gpu
列表之间的映射
、
一个带有4个
GPU
的
服务器
用于深度学习。通常情况下,
GPU
内存在训练过程终止(终止)后没有被释放。nvidia-smi显示的结果是 一些子
进程
还活着,因此占用了内存。布鲁斯-强制解决方案之一是使用以下方法杀死python创建的所有
进程
: 如果只有一个过程需要清理,这应该是有帮助的。但是,如果启动了多个
进程
,并且我们只想杀死与某
浏览 2
提问于2021-03-06
得票数 2
回答已采纳
1
回答
进程
间的cudaSetDevice()编号是否一致?
、
、
、
、
我想在父
进程
中调用
GPU
子
进程
,然后创建
GPU
子
进程
,每个N找到一个子
进程
,并(通过命令行)向每个
进程
传递一个唯一的
GPU
号,以便有效地有一个(并且只有一个)
进程
处理每个
GPU
。我计划在每个
进程
中调用cudaSetDevice(i),并从命令行接收i。然而,我怀疑,例如,一个
进程
中的
GPU
#3可能是另一个
进程
中的
GPU
#4,
浏览 1
提问于2019-08-25
得票数 1
1
回答
是否可以为一个
进程
锁定/保留
GPU
?
、
、
、
、
给定一个
GPU
池,我们通过检查
GPU
上是否没有运行
进程
来检查
GPU
是否空闲。是否可以为特定
进程
锁定/保留
GPU
?
GPU
应该只能被运行的
进程
使用,直到它完成,然后
GPU
应该是免费的。
浏览 4
提问于2020-06-25
得票数 0
回答已采纳
1
回答
获取芹菜中的工人ID
、
我想使用Celery在带有四块Tesla卡的
GPU
服务器
上运行作业。我使用4个worker池运行Celery worker,这样每张卡总是运行一个作业。device_id = os.getpid() % self.ndevices 然而,这并不能保证总是有效,即当工作
进程
随着时间的推移重新启动时。有人可以告诉我,是否可以从任务中检查工作人员,或者可以建议一个不同的解决方案来跨
GPU</em
浏览 1
提问于2013-06-19
得票数 10
回答已采纳
2
回答
在一个
GPU
上运行多个CUDA应用程序
、
、
、
CUDA文档没有具体说明多少CUDA
进程
可以共享一个
GPU
。例如,如果我由同一用户启动多个CUDA程序,而系统中只安装了一块
GPU
卡,会有什么效果?它能保证执行的正确性吗?在这种情况下,
GPU
如何调度任务?
浏览 1
提问于2015-07-27
得票数 42
回答已采纳
2
回答
多个tensorflow推理能在一个
GPU
上并行运行吗?
、
、
、
我正在尝试运行Tensorflow作为一个NVIDIA特斯拉V100
GPU
的服务。作为
服务器
,我的程序需要并发地接受多个请求。因此,我的问题如下: 当多个请求同时到达时,假设我们不使用批处理,这些请求是顺序地还是并行地在
GPU
上运行?我了解到,独立的
进程
有独立的CUDA上下文,这些上下文是在
GPU
上顺序运行的。但是,这些请求实际上是同一个
进程
中的不同线程,应该共享一个CUDA上下文。因此,根据,
GPU
可以同时运行多个内核。如果是这样的话,是否意味着如果我有大量的请
浏览 0
提问于2019-04-29
得票数 9
1
回答
在非AWS Kubernetes集群上使用aws-virtual-
gpu
-device-plugin
、
我读到了,如何使用它将一个
GPU
拆分成多个较小的
GPU
,并在每个小部件上运行并发作业。虽然这对我的用例来说很棒,但我想知道这是否只适用于AWS EKS服务,或者也可以用于其他云提供商K8集群?
浏览 3
提问于2021-02-20
得票数 0
1
回答
TensorFlow仅适用于
GPU
0
、
、
、
我很难尝试在
GPU
1中运行tensorflow程序。/
gpu
_init.cc:126] DMA: 0 I tensorflow/core/common_runtime/
gpu
/
gpu
_device.cc:717] Creating TensorFlow device (
浏览 0
提问于2016-03-12
得票数 1
1
回答
一个失效的
进程
是否仍在系统中分配资源?
、
、
我有一台生产机器(Ubuntu18.04),它使用Nvidia在
GPU
中运行
进程
。某个
进程
已经分配了内存,现在已经失效,使得
GPU
基本上无法使用。ps -o ppid= -pnvidia显示,这个
进程
在
GPU
中分配了大量内存。所以我想我可以用解放资源。子
进程
会产生什么麻烦吗?它能“看到”它所分配的资源不
浏览 0
提问于2023-04-18
得票数 1
回答已采纳
2
回答
火炬分布训练中的局部世界规模
、
、
假设我有两个机器,每个有4个
GPU
。假设训练算法的每个实例需要2个
GPU
。我想运行4个
进程
,每台机器运行2个
进程
,每个
进程
使用2个
GPU
。和global rank与但是,考虑到我不想使用硬代码参数,是否有一种方法可以恢复每个节点上运行的两个
进程
这将有益于我
浏览 7
提问于2020-04-03
得票数 4
回答已采纳
2
回答
在分布式计算中,世界的大小和排名是什么?
、
、
、
让我们假设我们有一个具有4个
GPU
的节点,并且我们希望在这4个
GPU
上运行我们的脚本(即每个
GPU
一个
进程
)。在这种情况下,世界排名和排名分别是多少?为了进一步解释它,另一个具有多个节点和多个
GPU
的例子也可能很有用。
浏览 1
提问于2019-10-07
得票数 29
回答已采纳
1
回答
如何将
GPU
与每个CPU相关联?
、
、
我有个问题: 假设我在我的系统中有2个
GPU
:s,我有2个主机
进程
运行cuda代码。我怎么能确定每个人都需要一个
GPU
呢?
浏览 7
提问于2017-11-20
得票数 1
回答已采纳
1
回答
为什么多个
GPU
被使用,即使我从终端选择一个?
、
、
我有一个
服务器
访问,它有多个
GPU
,可以同时被许多用户访问。我只从终端中选择了一个
gpu
_id,并且有这样的代码。device = "cuda:"+str(FLAGS.
gpu
_id) if torch.cuda.is_available() else "cpu" 其中FLAGS是一个解析器,解析终端中的参数。尽管我只选择了一个id,但我看到我使用的是两个不同的
GPU
。这会导致问题,当其他
GPU
内存几乎满时,而我的
进程
通过抛出&qu
浏览 5
提问于2022-09-08
得票数 0
1
回答
Linux机器上每个
进程
的
GPU
使用情况(CUDA)
、
我使用CUDA工具包在我的Nvidia
GPU
上执行一些计算。我怎样才能看到Linux机器(CUDA)上每个
进程
GPU
的使用情况?nvidia-smi确实列出了每个
GPU
的所有
进程
,但没有指出每个
进程
的
GPU
利用率: 📷
浏览 0
提问于2015-12-16
得票数 10
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
多进程TCP并发服务器
NVIDIA:深度学习GPU服务器搭建指南
GPU服务器有什么用?从民生到国防,GPU服务器正在大显身手!
超聚变将推出全液冷GPU服务器,支持NVIDIA A100液冷GPU
The Elec:华为计划今年打入GPU服务器市场
热门
标签
更多标签
云服务器
ICP备案
实时音视频
对象存储
即时通信 IM
活动推荐
运营活动
广告
关闭
领券