首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

春节充电系列:李宏毅2017机器学习课程学习笔记07之反向传播

【导读】我们在上一节的内容中已经为大家介绍了台大李宏毅老师的机器学习课程的深度学习入门问题,这一节将主要针对backpropagation问题展开分析。本文内容涉及机器学习中backpropagation的若干主要问题:链式法则,forward pass, backward pass以及summary。话不多说,让我们一起学习这些内容吧。

课件网址:

http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML17_2.html

视频网址:

https://www.bilibili.com/video/av15889450/index_1.html

李宏毅机器学习笔记7 反向传播(Back Propagation)

在上一次笔记中我们讨论到在深度学习中,我们寻找好的参数得到我们想要的输出结果,得到参数的方法就是梯度下降方法,为了有效计算梯度,我们采用的是backpropagation方法

1.链式法则

在数学分析课程中,涉及到复合函数的求导,我们会使用链式法则

由于神经网络是多个神经元级联起来的,涉及微分问题自然会用到链式法则

2. forward pass

c对w的微分可以分解为c先对z微分,然后z对w微分

其中c对w的微分很容易求得,这个过程称为forword pass

3. backward pass

但c对z微分我们现在还不知道,因为该神经元后面的结构我们不知道,假设z通过激活函数后是a,a影响z’,z’’,再利用链式法则我们可以得到

通过上图我们观察到,如果c对z’,z’’的微分知道,c对z的微分等于一个线性函数乘以一个sigmoid函数的导数,这种函数形式和之前介绍的神经元的函数形式很类似,所以我们可以用类似的形式表示

如果z’和z’’是输出层,那么最终结果很容易求得

如果z’,z’’不是输出层,我们可以递归继续求解,直到达到输出层

总结上述过程,我们可以先从输出层求得c对z的微分,然后利用backward pass推得的公式从后到前依次推理求解,这也是为什么这个方法叫做backpropagation的原因

4. summary

最后一步当然是z对w的微分和c对z的微分相乘

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180221G075K300?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券