当我使用交叉熵损失作为损失函数时,我得到此Dimension out range错误
Traceback (most recent call last):
File "e:\testcode\cnn.py", line 122, in <module>
loss = loss_func(output, b_y) # cross entropy loss
File "D:\Anaconda3\envs\pytorch\lib\site-packages\torch\nn\modules\module.py", line 532, i
我正在跟踪这个回购程序:
下面是一个小教程:
在开始本教程之前,将分支更改为r1.10.0
当我在整个UMLS数据集上训练这个模型时,给出了以下错误:
In automatic_optimization, when `training_step` returns a dict, the 'loss' key needs to be present
我检查了训练步骤的方法,很好:
def training_step(self, batch, batch_idx):
"""
Lightning calls this insid
我在github上读到了这些代码:
# loss1, loss2 belong to the same net
net.zero_grad()
loss1 = ...
loss2 = ...
loss1.backward()
loss2.backward()
optim.step()
这不是pytorch官方网站上提到的BP方法,官方文档中提到了tensor.backward的Computes the gradient of current tensor w.r.t. graph leaves.。
那么,其他梯度期望这两个损失张量不被计算?并且没有更新张量?