首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

投稿 走进神经网络

今天呢就给大家稍微讲讲一些关于神经网络的简单的基本知识,其实特别有意思而且特别简单QWQ

这个神经网络啊,说来挺高深,但说简单了,也很好懂,所以咱们开始哈。

想当年,某些神犇发现啊人为什么能够思考?原因在于人体的神经网络,而神经网络由神经细胞(又叫神经元)构成。

生物的神经元

上图是一个神经元。外部刺激通过神经末梢,转化为电信号,传导到神经元,之后无数神经元构成的神经中枢,综合各种信号,做出判断,人体根据神经中枢的指令,对外部刺激做出反应。

肯定有小伙伴会问:为什么不去造个机器啊,就像大脑一样,有很多很多很多神经元。

还真有人造了这种机器。这种机器也有神经元,我们暂且称一个神经元的模型为一个感知机。

大家来看看它美丽的身躯吧!

感知机的抽象形态

上图的圆圈就代表一个感知机。

它接受多个输入(x1,x2,x3...),产生一个输出,就好比神经末梢感受各种外部环境的变化,最后产生电信号。

咱们再简单点。约定每种输入只有两种可能:1或。

如果所有输入都是1,表示各种条件都成立,输出就是1;如果所有输入都是0,表示条件都不成立,输出就是0。

嗯太没意思了,下面举个好玩的例子:

有个人叫小T,他年纪不小了,想找个女票。由于小T是个高富帅(diaosi),他的择偶标准就四条(鼓掌):

颜值高 身材好

性格好 没男票

假设他的大脑就一根筋,这就构成一个感知器。上面四个因素就是外部输入,最后决定就是感知器的输出。

如果四个因素都是Yes(使用1表示),输出就是1(去撩撩试试);

如果都是No(使用0表示),输出就是(算了吧)。

看到这里,你肯定会问:如果某些因素成立,另一些因素不成立,输出是什么?比如,小美长得漂亮身材好性格好,但有男票,小T还要不要去撩呢?

现实中,各种因素很少具有同等重要性:某些因素是决定性因素,另一些因素是次要因素。因此,可以给这些因素指定权重,代表它们不同的重要性。

于是呢在这种情况下,小T的智商提高了,他的一根筋能稍微动一动了,于是来看权值:

长相10(小T是个花痴)

身材7(……这怎么说呢)

性格8(起码聊得来吧)

没男票1

(不打紧,小T可是天下男人都爱(e)慕(xin)的人呢,还在乎这个…)

这时,还需要指定一个阈值(threshold)。如果总和大于阈值,感知器输出1,否则输出0。假定阈值为19,那么 25 > 19,小T决定去撩。阈值的高低代表了意愿的强烈,阈值越低就表示越想去,越高就越不想去。

嗯,小T竟然会分析问题了,巨,巨巨……

同时他还发现,可以总结经验,不断地修改权值和阈值,他相信,总有一天他会成为一名情圣。然而呢,理想是美好的现实是残酷的,每撩每败,每败每撩。终于他也不是一根筋了,他有n根筋了,甚至其中还有相互作用!!!

这么厉害吗!咱们来稍微看看他大脑的结构图!

小T的大脑结构示意图/多层感知机

wow竟然这么复杂!

时光荏苒,小T已经变成了老T,这么多年来,通过一次次的尝试,一次次的失败与成功,在大佬的帮助与自己的努力下,他成功地一次次修改着权值和阈值,终于获得了情圣的称号……

好了故事讲完了,那就再讲讲T大脑中的那奇奇怪怪的网络吧!

玻尔兹曼机机和受限玻尔兹曼机机

//编者注:原文如此2333333

神经网络中有一类模型是为网络状态定义一个“能量”,能量最小化时网络达到理想状态,而网络的训练就是在最小化这个能量函数。玻尔兹曼机机就是基于能量的模型,其神经元分为两层:显层和隐层。显层用于表示数据的输入和输出,隐层则被理解为数据的内在表达。玻尔兹曼机机的神经元都是布尔型的,即只能取0、1值。标准的玻尔兹曼机机是全连接的,也就是说各层内的神经元都是相互连接的,因此计算复杂度很高,而且难以用来解决实际问题。因此,我们经常使用一种特殊的玻尔兹曼机机——受限玻尔兹曼机(简称RBM),它层内无连接,层间有连接,可以看做是一个二部图。

玻尔兹曼机机/受限玻尔兹曼机机

RBF网络

RBF径向基函数网络是一种单隐层前馈神经网络,它使用径向基函数作为隐层神经元激活函数,而输出层则是对隐层神经元输出的线性组合。

RBF网络

ART网络

ART自适应谐振理论网络是竞争型学习的重要代表,该网络由比较层、识别层、识别层阈值和重置模块构成。

ART比较好的缓解了竞争型学习中的“可塑性-稳定性窘境”。可塑性是指神经网络要有学习新知识的能力,而稳定性则指的是神经网络在学习新知识时要保持对旧知识的记忆。这就使得ART网络具有一个很重要的优点:可进行增量学习或在线学习。

(这个没有示意图233333)

SOM网络

SOM(自组织映射)网络是一种竞争学习型的无监督神经网络,它能将高维输入数据映射到低维空间(通常为二维),同事保持输入数据在高维空间的拓扑结构,即将高维空间中相似的样本点映射到网络输出层中的临近神经元。

SOM网络

结构自适应网络

我们前面提到过,一般的神经网络都是先指定好网络结构,训练的目的是利用训练样本来确定合适的连接权、阈值等参数。与此不同的是,结构自适应网络则将网络结构也当做学习的目标之一,并希望在训练过程中找到最符合数据特点的网络结构。

结构自适应网络

好了,基本上大家都已经走入了神经网络的大门了,那么师傅领进门,修行在个人,接下来的学习就靠大家自己了!

投稿:张天翊 黎子骏 简宇卿

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181023G217HH00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券