我对神经网络的计算能力感兴趣。人们普遍认为递归神经网络是图灵完备的。现在我在找一些证明这一点的文件。
我到目前为止发现的是:
我认为这只是从理论角度来看很有趣,因为它需要具有无限精确的神经元活动(以某种方式将状态编码为有理数)。
这需要无限数量的神经元,而且似乎也不太实际。
(请注意,another question of mine试图指出这种理论结果与实践之间的问题。)
我主要是在寻找一些神经网络,它真的可以执行一些代码,我也可以在实践中进行模拟和测试。当然,在实践中,他们会有某种有限的记忆。
有人知道这种事吗?
发布于 2010-06-07 16:43:36
发布于 2010-06-18 14:16:41
有点离题,但可能对你的搜索有用(这听起来像是硕士/博士论文)。在我使用学习算法进行分类、分割等方面的经验中,贝叶斯学习由于其强大的数学基础,优于所有形式的神经网络、遗传算法和其他优秀的测深算法。
在我的书中,数学基础使一项技术优于临时方法.例如,贝叶斯网络的结果可以从数学上解释为概率(即使是p值,如果你愿意的话),而神经网络通常是猜测的。不幸的是,贝叶斯统计数据听起来不像“神经网络”那么性感,尽管它可以说更有用、更有根据。
我希望有人能在学术场合正式摆脱这一切。
https://stackoverflow.com/questions/2990951
复制相似问题