前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >PyTorch 1.0 中文文档:常见问题解答

PyTorch 1.0 中文文档:常见问题解答

作者头像
ApacheCN_飞龙
发布2022-05-07 14:18:10
2700
发布2022-05-07 14:18:10
举报
文章被收录于专栏:信数据得永生

译者:冯宝宝

我的模型报告“cuda runtime error(2): out of memory”

正如错误消息所示,您的GPU显存已耗尽。由于经常在PyTorch中处理大量数据,因此小错误会迅速导致程序耗尽所有GPU资源; 幸运的是,这些情况下的修复通常很简单。这里有一些常见点需要检查:

不要在训练循环中积累历史记录。 默认情况下,涉及需要梯度计算的变量将保留历史记录。这意味着您应该避免在计算中使用这些变量,因为这些变量将超出您的训练循环,例如,在跟踪统计数据时。相反,您应该分离变量或访问其基础数据。

有时,当可微分变量发生时,它可能是不明显的。考虑以下训练循环(从源代码中删除):

代码语言:javascript
复制
total_loss = 0
for i in range(10000):
    optimizer.zero_grad()
    output = model(input)
    loss = criterion(output)
    loss.backward()
    optimizer.step()
    total_loss += loss

在这里,total_loss在您的训练循环中累积历史记录,因为丢失是具有自动记录历史的可微分变量。 您可以通过编写total_loss + = float(loss)来解决此问题。

此问题的其他实例:1

不要抓住你不需要的张量或变量。 如果将张量或变量分配给本地,则在本地超出范围之前,Python不会解除分配。您可以使用del x释放此引用。 同样,如果将张量或向量分配给对象的成员变量,则在对象超出范围之前不会释放。如果您没有保留不需要的临时工具,您将获得最佳的内存使用量。

本地规模大小可能比您预期的要大。 例如:

代码语言:javascript
复制
for i in range(5):
    intermediate = f(input[i])
    result += g(intermediate)
output = h(result)

阅读全文/改进本文

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019-03-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 我的模型报告“cuda runtime error(2): out of memory”
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档