首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >如何在pytorch中复制`grad_fn`?

如何在pytorch中复制`grad_fn`?
EN

Stack Overflow用户
提问于 2019-05-13 14:43:43
回答 1查看 753关注 0票数 2
代码语言:javascript
运行
复制
>>> print(foo.grad_fn)
<AddBackward0 object at 0x7f7f9f450710>

我想从foo.grad_fn复制到bar.grad_fn。作为参考,不需要foo.data。我只想复制gradient

这个是可能的吗?我尝试了以下方法,但失败了。

代码语言:javascript
运行
复制
>>> bar.grad_fn = foo.grad_fn
AttributeError: attribute 'grad_fn' of 'torch._C._TensorBase' objects is not writable

谢谢。

EN

回答 1

Stack Overflow用户

发布于 2020-07-29 00:15:32

实际上,这很容易。您可以简单地执行foo.grad.data来访问存储在叶张量中的梯度。因此,如果您想将渐变从一个叶复制到另一个叶,只需在调用backward之后执行bar.grad.data.copy_(foo.grad.data)。请注意,使用data是为了避免在计算图中跟踪此操作。

如果它不是叶,当您必须在backward中指定可选参数retain_graph=True时。

然而,我不确定你这样做是为了达到什么目的。我不明白为什么把梯度从一个张量复制到另一个张量会很有用。如果你告诉我们更多关于你实际上试图实现的目标,也许有人会给你一个更有帮助的答案。

票数 -1
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/56106983

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档