前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习作业4-反向传播

机器学习作业4-反向传播

作者头像
公号sumsmile
发布2021-03-09 15:03:01
4580
发布2021-03-09 15:03:01
举报

反向传播这一小段看了好几遍才理解一部分。 原理并不复杂,吴恩达在视频教程里为了降低难度,简化反向传播的原理,没有过多讲偏导的概念,反而增加了理解的难度。

反向传播核心要点

  • 反向传播是一种手段,用来求梯度用的,即求偏导,按照正规方程,对所有参数求偏导比较复杂,计算量偏大
  • 预测结果与观察结果之差(
{g_j - y_j}
{g_j - y_j}

)就是下标为j的神经元的偏导,正好可以用来当梯度用,这里感觉应该是近似,这里看懂了就明白吴恩达视频里的盲区了。注意,按照链式法则求偏导,(

{g_j - y_j}
{g_j - y_j}

) 还得乘

{g'}
{g'}

,才得到z的偏导,得到z,就可以按权重反向求出上一层各个神经元参数的偏导了

最后一项的偏导

吴恩达里的反向传播

最后一项的偏导

吴恩达里的反向传播

  • 最后一项的偏差是由前面的层级,一层层往后传递的,每一层的各个激活单元向后传递有拟合权重,即
{\theta}
{\theta}

向量

  • 注意吴恩达那个图里,向前每一层都是“乘以 权重
{\theta_i}
{\theta_i}

”,按照链式求导来理解。也可以感性的理解,权重大的,一个小的变化传递到下一层肯定也更大,像是“蝴蝶效应”,蝴蝶的翅膀越大效应越大,不知道这么记录以后自己还能看懂,确实抽象了点。

参考

量子位:你真的理解反向传播吗?面试必备 这篇文章了里,逻辑回归的偏导求错了,自己手推了下,可以参考下面这篇文章 Logistic函数求导

理解反向传播(Backpropagation) 英文论文原文

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 反向传播核心要点
  • 参考
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档