腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(69)
视频
沙龙
1
回答
如何在多个显卡上运行pytorch?
python
、
pytorch
我有4个显卡,我想用它们来进行pytorch。我有一张网: class Net(nn.Module): super(Net, self).__init__() self.conv2 = nn.Conv2d(20, 50, 5, 1) self.fc2 = nn.Linear(500, 10) def forward(s
浏览 32
提问于2019-04-23
得票数 1
回答已采纳
1
回答
torch.nn.DataParallel
不在放电筒中工作
machine-learning
、
deep-learning
、
pytorch
、
torch
train(dataloader, cnn_model, rnn_model, batch_size, labels, optimizer, epoch, ixtoword, image_dir):
torch.nn.DataParallel
(rnn_model.train(),device_idsprint('start_epoch', start_epoch) if cf
浏览 0
提问于2018-06-18
得票数 1
2
回答
DataParallel如何确定我想要使用哪种图形处理器?
pytorch
我想找到一种简单的方法来指定我的实验在其上运行的gpus。目前,我知道我可以使用我的python命令和CUDA_VISIBLE_DEVICES=1,2,3,4来设置图形处理器,我猜DataParallel会尝试使用所有的图形处理器。
浏览 2
提问于2019-06-18
得票数 0
2
回答
如何以正常的非平行方式运行火炬模型?
python
、
machine-learning
、
pytorch
args.distributed: model.features =
torch.nn.DataParallel
(model.features) else:else
浏览 10
提问于2017-08-24
得票数 1
回答已采纳
1
回答
使用带有自定义CUDA扩展的
torch.nn.DataParallel
neural-network
、
deep-learning
、
pytorch
、
libtorch
据我所知,内置的PyTorch操作都通过隐式矢量化自动处理批处理,允许跨多个GPU并行。但是,我有一个用例,它不是批处理元素不变的,也不是可向量化的。运行在单个GPU上的我目前(效率不高)循环处理批处理中的每个元素,为每个元素执行内核启动,就像这样(在浏览器中编写,只是为了演示):
浏览 1
提问于2018-07-18
得票数 37
回答已采纳
1
回答
使用PyTorch手动拆分和分发用于分布式计算的大型张量
python
、
deep-learning
、
pytorch
、
distributed-computing
torch.utils.data.distributed.DistributedSampler(train_data)model =
torch.nn.DataParallel
具体来说,data = do_sth_fuct(data)是否有PyTorch
浏览 1
提问于2019-11-10
得票数 1
1
回答
AttributeError:“函数”对象没有属性“cuda”
python
、
pytorch
、
python-3.7
__dict__['resnet18']model.to
浏览 4
提问于2020-01-10
得票数 2
回答已采纳
2
回答
为什么在测试时必须使用DataParallel?
deep-learning
、
pytorch
上的测试:device_ids = list(range(num_gpus))model.load_state_dict(model_dict)device_ids = list(range(num_gpus)) model =
torch.nn.DataParallel
浏览 1
提问于2020-05-17
得票数 4
回答已采纳
1
回答
在cpu上使用BERT :模块必须在设备cuda:0 (device_ids[0])上有它的参数和缓冲区,但是在设备:cpu上找到了其中一个参数和缓冲区
python
、
pytorch
、
bert-language-model
、
huggingface-transformers
我试图使用我的微调伯特在我的本地机器上可视化。模型参数保存在一个名为trained_model.pt的文件中。当我尝试加载和使用它时,我会得到以下错误:from pytorch_pretrained_bert import BertTokenizer, BertModel, BertForMaskedLM tokenizer = BertTokenizer.from_pretrained('bert-base-uncased') # Tokenized
浏览 1
提问于2021-03-19
得票数 1
1
回答
DataParallel模型负载与map_location
pytorch
模型与保存model=
torch.nn.DataParallel
(net)# Training模型加载model =
torch.nn.DataParallel
(net, device_ids=[0,1]) model =
浏览 6
提问于2021-07-07
得票数 1
1
回答
当我使用
torch.nn.DataParallel
()时,如何访问类对象?
python
、
pytorch
、
torch
、
multi-gpu
我包括了以下几行:然后,我尝试访问模型定义中定义的优化器: G_opt = model.module.optimizer_G当我使用没有
torch.nn.DataParallel
的单个GPU时,它就能工作。但是它不适用于多个GPU,即使我用module调用,也找不到解决方案。
浏览 0
提问于2021-03-12
得票数 1
1
回答
nn.DataParallel -培训似乎还没有开始
python
、
pytorch
、
gpu
、
gnu-parallel
、
multi-gpu
torch.device('cuda:1' if torch.cuda.is_available() else 'cpu')model =
torch.nn.DataParallel
浏览 20
提问于2021-04-15
得票数 1
1
回答
有没有更好的方法让pytorch代码不能在CPU或GPU上运行?
python
、
gpu
、
cpu
、
pytorch
最后,我在我的代码中找到了这个命令:即使我将模型转换为'cpu',nn.DataParallel也会覆盖它我想出的最好的解决方案是有条件的: model = model.to(device) model =
torch.nn.DataParallel
浏览 0
提问于2018-10-03
得票数 5
1
回答
关于
torch.nn.DataParallel
的几个问题
python
、
pytorch
由于它们使用多个GPU,所以在代码中有一个命令
torch.nn.DataParallel
(model, device_ids= args.gpus).cuda()。
浏览 1
提问于2018-10-05
得票数 4
2
回答
PyTorch的DataParallel只使用一个图形处理器
python
、
parallel-processing
、
pytorch
、
gpu
我使用的是
torch.nn.DataParallel
,但出于某种原因,nvidia-smi说我只用了一个图形处理器。
浏览 17
提问于2020-12-01
得票数 2
1
回答
如何在CPU代码中更改此GPU代码?
model
、
gpu
、
cpu
、
pytorch
x = V(centre_crop(img).unsqueeze(0), volatile=True).cuda() model =
torch.nn.DataParallel
浏览 0
提问于2017-09-14
得票数 0
1
回答
如何使用多GPU _ BERT
python
、
gpu
、
bert-language-model
df['label'].unique()), output_hidden_states = False,import
浏览 32
提问于2020-10-23
得票数 0
1
回答
拥抱面推理过程中的简单MultiGPU
pytorch
、
huggingface-transformers
例如,使用py手电筒,只需执行以下操作非常容易:output = net(input_var
浏览 2
提问于2022-03-09
得票数 2
1
回答
张量的PyTorch多GPU K80s批处理失败
batch-processing
、
pytorch
if USE_CUDA: encoder =
torch.nn.DataParallel
(encoder, device_ids=[0, 1, 2, 3, 4, 5, 6, 7]) decoder =
torch.nn.DataParallel
浏览 1
提问于2017-07-24
得票数 2
1
回答
Pytorch : GPU内存泄漏
deep-learning
、
parallel-processing
、
pytorch
、
conv-neural-network
、
gpu
下图为了解决这个问题,我补充说-它解决了内存问题,如下所示- 但是由于我使用的是
torch.nn.DataParallel
在使用os.environ['CUDA_LAUNCH_BLOCKING'] = "1"之前,图形处理器利用率如下(同样糟糕)-通过深入研究,我了解到,当我们使用
torch.nn.DataParallel
我使用
torch.nn.DataPar
浏览 0
提问于2020-05-25
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
GPU捉襟见肘还想训练大批量模型?谁说不可以
深度学习中的分布式训练
如何提高PyTorch“炼丹”速度?这位小哥总结了17种方法,可直接上手更改的那种
深度学习为什么要选择 PyTorch
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券