本文由腾讯云+社区自动同步,原文地址 https://stackoverflow.club/article/neural_network_base_test/
当某一突触(连接)两端的神经元同步激活(同为激活或同为抑制)时,该连接的强度应增强,反之,应减弱
数学方式描述:
Hebb学习规则基于假设:
基本特征:(1)非线性。人工神经网络元处于激活或者抑制两种不同的状态,这种行为在数学上表现为一种非线性关系,具有阈值的神经元构成的网络具有更好的性能,可以提高容错性和存储容量。(2)非局限性。一个神经网络由多个神经元广泛连接而成,一个系统的整体行为不仅取决于单个神经元的特征,而且可能主要由单元之间的相互作用、相互连接所决定。通过单元之间的大量连接模拟大脑的非局限性。联想记忆是非局限性的典型例子。3)非常定性。人工神经网络具有自适应、自组织、自学习能力。神经网络不但处理的信息可以有各种变化,而且在处理信息的同时,非线性动力系统本身也在不断变化。经常采用迭代过程描写动力系统的演化过程。
一小段一小段复制百度文库的内容太蠢了,要看答案见这篇文章
具有一个隐含层的BP简化网络图
图中,设输入为P,输入神经元有r个,隐含层内有s1个神经元,激活函数为F1,输出层内有 s2个神经元,对应的激活函数为F2,输出为A,目标矢量为T
参考: