我试图使用两种不同的损失,MSELoss作为我的一些标签和一个定制的损失为其他标签。然后,我试图把这些损失加在一起,然后再做后盾。我的模型在每一个时代都打印出同样的损失,所以我肯定做错了什么。任何帮助都是非常感谢的!我怀疑我的实施搞砸了毕托尔的自动毕业。grad_fn=<AddBackward0>)
loss after Variable() tensor(4980.7891, device='cuda:0', requ
在TensorFlow或Theano中,你只告诉图书馆你的神经网络是怎样的,以及前馈应该如何操作。我的问题是: TensorFlow (或Theano)如何知道反向传播的解析导数?或者他们做近似值?还是不知何故不使用导数?我已经完成了 on TensorFlow,但对于如何理解这些库的工作,我仍然存在分歧。