我看了一场讲座,并推导出反向传播的方程,但它是一个简单的例子,有3个神经元:一个输入神经元,一个隐藏神经元和一个输出神经元。这很容易推导,但是我如何对更多的神经元做同样的事情呢?我不是在说增加更多的层,我只是在已经存在的三个层上增加更多的神经元:输入层,隐藏层和输出层。
我的第一个猜测是使用我为只有3个神经元和3层的网络推导的方程,并迭代到更大网络中的每个输出神经元的所有可能路径,更新每个权重。但是,这会导致某些权重多次更新。我可以这样做吗?或者有更好的方法吗?
发布于 2015-07-21 04:04:13
如果你想学习更多关于反向传播的知识,我建议你阅读斯坦福大学http://cs231n.github.io/optimization-2/的这个链接,它将真正帮助你理解backprop和所有下面的数学知识。
https://stackoverflow.com/questions/31510556
复制相似问题