前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >神经网络初步与反向传播算法

神经网络初步与反向传播算法

作者头像
vincentbbli
发布2021-08-18 14:56:07
2060
发布2021-08-18 14:56:07
举报
文章被收录于专栏:vincent随笔

层数表示

输入数据的层叫输入层(input layer) 输出结果的层叫输出层(output layer) 除了这两层之外的层都叫隐藏层(hidden layer)

激活函数

表示方法denote

如图所示,输入层有10个节点(加上偏差结点共11个),隐藏层有10个节点(加上偏差结点共11个),输出层有1个节点,则每一层的权重矩阵维度如图所示。

(不过通常,在输入层和隐藏层会加入一个额外节点x0​,a0​,称为偏差结点,这里没有画出。)

代价函数 costfunction

神经网络的代价函数跟逻辑回归的代价函数十分相似。

虽然看上去有点长,但是结合逻辑回归的代价函数非常好理解,对K个输出节点的输出进行累加,然后再对m个训练集数据的误差进行累加,后面的部分是正则化,对K层中每两层的权重两两进行累加,求平方。

前向传播 forward propagation 过程

如图,除了输入层以外的节点和偏差结点,每个节点的值的计算方式为

其他的除了偏差结点之外的节点,都通过一样的公式得到节点的值。

反向传播算法 Back Propagation

算法流程为:

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018/11/16 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 层数表示
  • 激活函数
  • 表示方法denote
  • 代价函数 costfunction
  • 前向传播 forward propagation 过程
  • 反向传播算法 Back Propagation
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档