首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

手撕CNN系列三:卷积神经网络的反向传播

15

卷积神经网络(CNN)现在是图像分类的标准方式,其 具有可公开访问的深度学习框架、训练有素的模型和服务。下面我们来更深入地了解CNN网络中的权值共享以及反向传播原理,

我们从多层感知器开始并计算delta误差:

我们在上面的图片中看到与下一层按权重缩放的增量成正比。但是我们如何将MLP的概念与卷积神经网络联系起来呢?在MLP中,前一层的值通过网络的权重矩阵相乘得到下一层的神经元值,其中权重共享示意图如下所示:

而在CNN中,我们是通过卷积将前一层输入到下一层,所以下面的图片就是在CNN中连接切割和权重共享后我们得到一层卷积神经网络:

这个图背后的想法是表明,这种神经网络配置与2D卷积运算相同,权重只是滤波器(也称为内核,卷积矩阵或掩码)。现在我们通过图片来显示CNN中的梯度计算。

我们刚刚用“橙色”层的权重渐变来缩放“蓝色层”。与MLP的反向传播过程相似。只是在MLP中我们通过点乘,在这里我们使用卷积:

是的,它与前一个(前向)案例的卷积有点不同。在那里我们做了所谓的有效卷积,而在这里我们做了一个完整的卷积。更重要的是我们将内核旋转180度。

具体公式我们不推导,详情可查看文章:https://www.jefkine.com/general/2016/09/05/backpropagation-in-convolutional-neural-networks/

现在,我们可以总结一下CNN反向传播过程:

1、CNN将传统网络层间的矩阵点乘替换为前馈和反向传播中的卷积运算。

2、卷积神经网络采用权重共享策略,可以显着减少必须学习的参数数量。在连续卷积层中存在较大的感受野大小的神经元,并且存在汇集层,这也导致平移不变性。正如我们所观察到的,前向和后向传播的推导将根据我们传播的层而不同。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181230A09H9C00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券