>>> print(foo.grad_fn)
<AddBackward0 object at 0x7f7f9f450710>
我想从foo.grad_fn
复制到bar.grad_fn
。作为参考,不需要foo.data
。我只想复制gradient
。
这个是可能的吗?我尝试了以下方法,但失败了。
>>> bar.grad_fn = foo.grad_fn
AttributeError: attribute 'grad_fn' of 'torch._C._TensorBase' objects is not writable
谢谢。
发布于 2020-07-29 00:15:32
实际上,这很容易。您可以简单地执行foo.grad.data
来访问存储在叶张量中的梯度。因此,如果您想将渐变从一个叶复制到另一个叶,只需在调用backward
之后执行bar.grad.data.copy_(foo.grad.data)
。请注意,使用data
是为了避免在计算图中跟踪此操作。
如果它不是叶,当您必须在backward
中指定可选参数retain_graph=True
时。
然而,我不确定你这样做是为了达到什么目的。我不明白为什么把梯度从一个张量复制到另一个张量会很有用。如果你告诉我们更多关于你实际上试图实现的目标,也许有人会给你一个更有帮助的答案。
https://stackoverflow.com/questions/56106983
复制相似问题