我试图训练一个演员-评论家模型,但当我到达评论家的后盾时,我得到了这个错误:RuntimeError: invalid gradient at index 0 - expected type torch.cuda.FloatTensorbut got torch.FloatTensor我无法识别错误指的是哪个梯度。at index 0 - expected type torch.cuda.FloatTensor but got torch.FloatTensor 和相关代码:来自reinforce_trainer的train_epochac
我正在尝试为我的NN使用自定义的损失函数。我已经在torch中实现了所有操作,并且我的数据中包含复数。我在训练NN时出现错误: RuntimeError: _th_addr_out not supported on CPUType for ComplexFloat 你知道有什么可能的解决方案来处理它吗
假设我有我的自定义损失函数,我想用我的神经网络拟合一些微分方程的解。因此,在每一次向前通过时,我都是计算我的神经网络的输出,然后用期望的方程来计算损失,这是我想要拟合我的感知器。现在我的疑问是:我是应该使用grad(loss),还是应该使用loss.backward()进行反向传播来计算和更新渐变?我理解在使用loss.backward()时,我必须用变量包装我的张量,并且必须为变量w.r.t设置requires_grad = Tru