我经常读到,前馈和递归神经网络(RNNs)之间有着根本的区别,这是因为前馈网络缺乏内部状态和短期记忆。乍一看,这似乎是有道理的。
然而,当使用逆传时间算法学习递归神经网络时,如果我正确理解,递归网络将被转化为等价的前馈网络。
这就意味着,实际上没有根本的区别。为什么RNNs在某些任务中表现更好(图像识别、时间序列预测、.)而不是深度的前馈网络?
发布于 2014-05-24 11:58:55
训练是用一些技巧来完成的,这并不改变这样一个事实,即在前馈网络中缺少的网络状态的保存存在着基本的差异。
“展开”前馈网络是,而不是与递归网络等效的。它只是一个马尔可夫近似(由“展开”级别的数量给出的级别)。所以你只需要用k阶记忆来“模拟”递归网络,而实际的递归神经网络有(理论上)无限的记忆。
https://stackoverflow.com/questions/23844737
复制相似问题