首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何在多个GPU上使用Pytorch示例中的DistributedDataParallel的world-size参数?

如何在多个GPU上使用Pytorch示例中的DistributedDataParallel的world-size参数?
EN

Stack Overflow用户
提问于 2017-08-14 20:24:41
回答 1查看 444关注 0票数 4

我在一台g2.2xlarge AWS机器上运行this Pytorch example。因此,当我运行time python imageNet.py ImageNet2时,它在以下时间运行良好:

代码语言:javascript
复制
real    3m16.253s
user    1m50.376s
sys 1m0.872s

但是,当我添加world-size参数时,它被卡住了,并且不执行任何操作。命令如下:time python imageNet.py --world-size 2 ImageNet2

那么,如何通过此脚本中的world-size参数来利用DistributedDataParallel功能。world-size参数是number of distributed processes

我是否要为此目的启动另一个类似的实例?如果是,那么脚本如何识别该实例?是否需要添加一些参数,如实例的IP等?

EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/45674497

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档