专栏首页机器视觉CV卷积神经网络之 - 残差⽹络(RESNET)

卷积神经网络之 - 残差⽹络(RESNET)

本文作者:铜豌豆 & Leong

残差神经网络 (ResNet) 是由微软研究院的何恺明、张祥雨、任少卿、孙剑等人提出的。ResNet 在 2015 年的 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)中取得了图像分类、检测、定位三个冠军。2016 年 CVPR 论文:《Deep Residual Learning for Image Recognition》就介绍了 ResNet,该论文截至当前 (2020.1.3) 已被引用超过 36500 次。

残差神经网络的主要贡献是发现了 “退化现象(Degradation)”,并针对退化现象发明了“快捷连接(Shortcut connection)”(或者跳过连接),极大的消除了深度过大的神经网络训练困难问题。神经网络的 “深度” 首次突破了 100 层、最大的神经网络甚至超过了 1000 层。

ILSVRC 2015 图像分类排名 ResNet 论文网址:https://arxiv.org/abs/1512.03385

从一个信念说起

在 2012 年的 ILSVRC 挑战赛中,AlexNet 取得了冠军,并且大幅度领先于第二名。由此引发了对 AlexNet 广泛研究,并让大家树立了一个信念 ——“越深网络准确率越高”。这个信念随着 VGGNet、Inception v1、Inception v2、Inception v3 不断验证、不断强化,得到越来越多的认可,但是,始终有一个问题无法回避,这个信念正确吗? 它是正确的,至少在理论上是正确的。

假设一个层数较少的神经网络已经达到了较高准确率,我们可以在这个神经网络之后,拼接一段恒等变换的网络层,这些恒等变换的网络层对输入数据不做任何转换,直接返回(y=x),就能得到一个深度较大的神经网络,并且,这个深度较大的神经网络的准确率等于拼接之前的神经网络准确率,准确率没有理由降低。

层数较多的神经网络,可由较浅的神经网络和恒等变换网络拼接而成,下图所示。

退化现象与对策

在讲退化这个概念之前先说一下梯度消失 (Gradients Vanishing) 和梯度爆炸 (Gradients Exploding) 这个概念。也就是在训练神经网络的时候,导数或坡度有时会变得非常大,或者非常小,多个层以后梯度将以指数方式变大或者变小,这加大了训练的难度。

当网络很深时,很小的数乘起来将会变成 0(梯度消失),很大的数乘起来会变得非常大(梯度爆炸)

通过实验,ResNet 随着网络层不断的加深,模型的准确率先是不断的提高,达到最大值(准确率饱和),然后随着网络深度的继续增加,模型准确率毫无征兆的出现大幅度的降低。以下曲线显示 20 层普通网络的训练误差和测试误差低于 56 层普通网络,这个现象与 “越深的网络准确率越高” 的信念显然是矛盾的、冲突的。ResNet 团队把这一现象称为 “退化(Degradation)”。

ResNet 团队把退化现象归因为深层神经网络难以实现 “恒等变换(y=x)”。乍一看,让人难以置信,原来能够模拟任何函数的深层神经网络,竟然无法实现恒等变换这么简单的映射了?

让我们来回想深度学习的起源,与传统的机器学习相比,深度学习的关键特征在于网络层数更深、非线性转换(激活)、自动的特征提取和特征转换,其中,非线性转换是关键目标,它将数据映射到高纬空间以便于更好的完成 “数据分类”。随着网络深度的不断增大,所引入的激活函数也越来越多,数据被映射到更加离散的空间,此时已经难以让数据回到原点(恒等变换)。或者说,神经网络将这些数据映射回原点所需要的计算量,已经远远超过我们所能承受的。

退化现象让我们对非线性转换进行反思,非线性转换极大的提高了数据分类能力,但是,随着网络的深度不断的加大,我们在非线性转换方面已经走的太远,竟然无法实现线性转换。显然,在神经网络中增加线性转换分支成为很好的选择,于是,ResNet 团队在 ResNet 模块中增加了快捷连接分支,在线性转换和非线性转换之间寻求一个平衡。

残差网络

为了解决梯度消失 / 爆炸的问题,添加了一个跳过 / 快捷方式连接,将输入 x 添加到经过几个权重层之后的输出中,如下图所示:

残差网络构建块

输出为 H (x) = F (x) + x,权重层实际上是学习一种残差映射:F (x) = H (x) - x,即使权重层的梯度消失了,我们仍然始终具有标识 x 可以转移回较早的层。

ResNet 网络架构

按照这个思路,ResNet 团队分别构建了带有 “快捷连接(Shortcut Connection)” 的 ResNet 构建块、以及降采样的 ResNet 构建块,区别是降采样构建块的主杆分支上增加了一个 1×1 的卷积操作,见下图

下图展示了 34 层 ResNet 模型的架构图,仿照 AlexNet 的 8 层网络结构,我们也将 ResNet 划分成 8 个构建层(Building Layer)。一个构建层可以包含一个或多个网络层、以及一个或多个构建块(如 ResNet 构建块)。

34 层 ResNet 模型架构图(此图来源于《TensorFlow 深度学习实战大全 》)

第一个构建层,由 1 个普通卷积层和最大池化层构建。

第二个构建层,由 3 个残差模块构成。

第三、第四、第五构建层,都是由降采样残差模块开始,紧接着 3 个、5 个、2 个残差模块。

ResNet 各个版本的网络架构如下所示:

实验结果

一个概念:10 -crops: 取图片(左上,左下,右上,右下,正中)以及它们的水平翻转。这 10 个 crops 在 CNN 下的预测输出取平均作为最终预测结果。

  • 图像分类
  1. ILSVRC

其中 plain-34 就是普通的卷积叠加起来的网络,把 ResNet 深度一直加深,错误率也一直降低

10-Crop + 多尺度全卷积

10-Crop + 多尺度全卷积 + 6 个模型融合,错误率降到了 3.57%

  1. CIFAR-10 数据集

作者们干脆把网络深度加到了 1202 层,此时网络优化起来也没有那么困难,即仍可以收敛,但是,当层数从 110 增加到 1202 时,发现错误率从 6.43%增加到 7.93%,可能是因为 CIFAR10 样本少,层数增大到 1202 层时会因为 overfit 造成错误率提升。

  • 目标检测

PASCAL VOC 2007/2012 数据集 mAP (%) 测试结果如下:

MS COCO 数据集 mAP (%) 测试结果如下:

通过将 ResNet-101 应用于 Faster R-CNN,ResNet 可以获得比 VGG-16 更好的性能。

本文所引用的部分内容来自于书籍《TensorFlow 深度学习实战大全》

《TensorFlow 深度学习实战大全》

购买链接:

参考资料:

  • 《TensorFlow 深度学习实战大全 》作者:李明军
  • https://www.cv-foundation.org/openaccess/content_cvpr_2016/papers/He_Deep_Residual_Learning_CVPR_2016_paper.pdf
  • https://towardsdatascience.com/review-resnet-winner-of-ilsvrc-2015-image-classification-localization-detection-e39402bfa5d8
  • 吴恩达视频_梯度消失 / 爆炸:https://www.bilibili.com/video/av48340026?p=10

本文分享自微信公众号 - 机器视觉CV(AIandCV),作者:铜豌豆

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2020-01-06

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 【AI初识境】近20年深度学习在图像领域的重要进展节点

    这是专栏《AI初识境》的第3篇文章。所谓初识,就是对相关技术有基本了解,掌握了基本的使用方法。

    机器视觉CV
  • 深入理解GBDT回归算法

    Boosting、Bagging和Stacking是集成学习(Ensemble Learning)的三种主要方法。Boosting是一族可将弱学习器提升为强学习...

    机器视觉CV
  • YOLO 目标检测实战项目『原理篇』

    在目标检测中,IoU 为预测框 (Prediction) 和真实框 (Ground truth) 的交并比。如下图所示,在关于小猫的目标检测中,紫线边框为预测框...

    机器视觉CV
  • 深度学习入门

    引言 近几年来人工智能越来越火,大家都已经知道了AlphaGo的威力,然而在其背后,从技术层面来说,深度学习功不可没。那么深度学习到底是什么,其...

    机器学习算法工程师
  • Django开发密码管理表实例【附源码】

    目前的维护方式还是最传统的Excel,一个人更新给多个人同步,Excel设置密码以保证安全性,原始且效率低下,既然我们已经上线了overmind数据库运维系统,...

    37丫37
  • LeCun、Bengio、Hinton三巨头曾合体,Nature发文综述深度学习(论文精华)

    大数据文摘
  • 适合初学者学习的神经网络:流行类型和应用

    目前,神经网络被用于解决许多商业问题,如销售预测、客户研究、数据验证和风险管理。更进一步讲,我们能够使用神经网络进行时间序列预测、数据中的异常检测和自然语言理解...

    AiTechYun
  • Docsify 如何添加目录列表

    你也可以访问我们的文档,获得直观的内容:https://cwiki-us-docs.github.io/spring-docs/#/

    HoneyMoose
  • 俄罗斯研究人员利用神经网络使金属3D打印更加高效

    3D打印机需要使用数学模型对定位和控制算法进行微调,以达到最佳性能。这是一个漫长而艰巨的过程,可能需要数周才能设置打印参数。即便如此,仍然存在打印错误的可能性。

    AiTechYun
  • Windows认证 | 域认证

    在Windows中的身份认证方式有很多,也在不断的升级,但是在域中,依旧使用的是Kerberos认证。

    信安本原

扫码关注云+社区

领取腾讯云代金券