前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >PyTorch中的model.zero_grad() vs optimizer.zero_grad()

PyTorch中的model.zero_grad() vs optimizer.zero_grad()

作者头像
Tyan
发布2020-10-10 14:26:47
5.8K0
发布2020-10-10 14:26:47
举报
文章被收录于专栏:SnailTyanSnailTyan

文章作者:Tyan 博客:noahsnail.com | CSDN | 简书

1. 引言

在PyTorch中,对模型参数的梯度置0时通常使用两种方式:model.zero_grad()optimizer.zero_grad()。二者在训练代码都很常见,那么二者的区别在哪里呢?

2. model.zero_grad()

model.zero_grad()的作用是将所有模型参数的梯度置为0。其源码如下:

代码语言:javascript
复制
for p in self.parameters():
    if p.grad is not None:
        p.grad.detach_()
        p.grad.zero_()

3. optimizer.zero_grad()

optimizer.zero_grad()的作用是清除所有优化的torch.Tensor的梯度。其源码如下:

代码语言:javascript
复制
for group in self.param_groups:
    for p in group['params']:
        if p.grad is not None:
            p.grad.detach_()
            p.grad.zero_()

4. 总结

  • 当使用optimizer = optim.Optimizer(net.parameters())设置优化器时,此时优化器中的param_groups等于模型中的parameters(),此时,二者是等效的,从二者的源码中也可以看出来。
  • 当多个模型使用同一个优化器时,二者是不同的,此时需要根据实际情况选择梯度的清除方式。
  • 当一个模型使用多个优化器时,二者是不同的,此时需要根据实际情况选择梯度的清除方式。

References

  1. https://discuss.pytorch.org/t/model-zero-grad-or-optimizer-zero-grad/28426
  2. https://discuss.pytorch.org/t/whats-the-difference-between-optimizer-zero-grad-vs-nn-module-zero-grad/59233
  3. https://discuss.pytorch.org/t/zero-grad-optimizer-or-net/1887
  4. https://pytorch.org/docs/stable/optim.html
  5. https://pytorch.org/docs/stable/generated/torch.nn.Module.html#torch.nn.Module
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2020-09-29 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 引言
  • 2. model.zero_grad()
  • 3. optimizer.zero_grad()
  • 4. 总结
  • References
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档