前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >caffe详解之反向传播

caffe详解之反向传播

作者头像
AI异构
发布2020-07-29 11:01:03
7440
发布2020-07-29 11:01:03
举报
文章被收录于专栏:AI异构AI异构

从零开始,一步一步学习caffe的使用,期间贯穿深度学习和调参的相关知识!

前向传播与反向传播

  • 反向传播(back-propagation)是计算深度学习模型参数梯度的方法。总的来说,反向传播中会依据微积分中的链式法则,按照输出层、靠近输出层的隐含层、靠近输入层的隐含层和输入层的次序,依次计算并存储模型损失函数有关模型各层的中间变量和参数的梯度。反向传播回传误差(只在训练过程中实现)
  • 反向传播对于各层中变量和参数的梯度计算可能会依赖各层变量和参数的当前值。对深度学习模型按照输入层、靠近输入层的隐含层、靠近输出层的隐含层和输出层的次序,依次计算并存储模型的中间变量叫做正向传播(forward-propagation)。前向传播求损失(训练与测试均需要)

反向传播公式推导

在这里,我们先按照周志华《机器学习》的反向传播理解思路进行公式推导,对后面深入理解深度神经网络中的反向传播预热!

深入理解反向传播

计算图

计算图的三要素:节点,连接线,操作

  • 节点:用于表示变量,变量可以是标量,矢量,向量,矩阵等
  • 连接线:用于连通节点
  • 操作:一个或多个变量的简单函数

举例说明计算图的表示方式

链式法则与雅可比矩阵
  • 单项链式法则
  • 多项链式法则
  • 雅可比矩阵
  • 高维链式法则表示
反向传播的优点

我们通过计算图结合链式法则举例说明反向传播在计算上的优势:

反向传播与梯度下降的关系

有很多人会将反向传播与梯度下降算法混为一谈,但其实两者是可以分离的,我们独立出两个概念来讨论问题会使得学习的重点更加清晰!

  • 反向传播仅仅是计算梯度的算法
  • 梯度下降是使用该梯度进行学习的算法

总结

反向传播与梯度下降总结图示:

参考

李宏毅机器学习课程 Deep Learning Book Principles of training multi-layer neural network using backpropagation(http://galaxy.agh.edu.pl/~vlsi/AI/backp_t_en/backprop.html)

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-02-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI异构 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前向传播与反向传播
  • 反向传播公式推导
  • 深入理解反向传播
    • 计算图
      • 链式法则与雅可比矩阵
        • 反向传播的优点
          • 反向传播与梯度下降的关系
          • 总结
          • 参考
          领券
          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档