前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >叶子节点和tensor的requires_grad参数

叶子节点和tensor的requires_grad参数

作者头像
狼啸风云
修改2022-09-02 22:16:54
1.1K0
修改2022-09-02 22:16:54
举报

无论如何定义计算过程、如何定义计算图,要谨记我们的核心目的是为了计算某些tensor的梯度。在pytorch的计算图中,其实只有两种元素:数据(tensor)和运算,运算就是加减乘除、开方、幂指对、三角函数等可求导运算,而tensor可细分为两类:叶子节点(leaf node)和非叶子节点。使用backward()函数反向传播计算tensor的梯度时,并不计算所有tensor的梯度,而是只计算满足这几个条件的tensor的梯度:1.类型为叶子节点、2.requires_grad=True、3.依赖该tensor的所有tensor的requires_grad=True。首先,叶子节点可以理解成不依赖其他tensor的tensor,如下图

在pytorch中,神经网络层中的权值w的tensor均为叶子节点;自己定义的tensor例如a=torch.tensor([1.0])定义的节点是叶子节点;一个有趣的现象是:

代码语言:javascript
复制
import torch
a=torch.tensor([1.0])

a.is_leaf
True

b=a+1
b.is_leaf
True

可以看出b竟然也是叶节点!这件事可以这样理解,单纯从数值关系上b=a+1,b确实依赖a。但是从pytorch的看来,一切是为了反向求导,a的requires_grad属性为False,其不要求获得梯度,那么a这个tensor在反向传播时其实是“无意义”的,可认为是游离在计算图之外的,故b仍然为叶子节点,如下图

再例如下图的计算图,本来是叶子节点是可以正常进行反向传播计算梯度的:

但是使用detach()函数将某一个非叶子节点剥离成为叶子节点后:

无论requires_grad属性为何值,原先的叶子节点求导通路中断,便无法获得梯度数值了。其次,如上所示,对于需要求导的tensor,其requires_grad属性必须为True,例如对于下图中最上面的叶子节点,pytorch不会自动计算其导数。

自己定义的tensor的requires_grad属性默认为False,神经网络层中的权值w的tensor的requires_grad属性默认为True。需要说明,如果自行定义了一个tensor并将其requires_grad设置为True,该tensor是叶子节点,且依赖该tensor的其他tensor是非叶子节点(非叶子节点不会自动求导),其requires_grad自动设置为True,这样便形成了一条从叶节点到loss节点的求导的“通路”。

代码语言:javascript
复制
import torch
a=torch.tensor([1.0])
a.requires_grad=True

b=a+1
b.is_leaf
False
b.requires_grad
True

而对于非叶子节点,其不仅requiresgrad属性为True,而且还有一个grad_fn属性,记录了该节点产生时使用的运算函数,加?乘方?使得反向求导时可以计算梯度。另外,如果需要使得某一个节点成为叶子节点,只需使用detach()即可将它从创建它的计算图中分离开来。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2020-05-25 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档