前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习: ResNet (残差) 网络

深度学习: ResNet (残差) 网络

作者头像
JNingWei
发布2018-09-27 15:12:46
3.5K0
发布2018-09-27 15:12:46
举报
文章被收录于专栏:JNing的专栏JNing的专栏

Introduction

ResNet (残差) 网络 由He Kaiming、Sun jian等大佬在2015年的论文 Deep Residual Learning for Image Recognition 中提出。

添加了一些直达通道,相当于加入了约束。使得某些原本就应为identity mapping的module,直接获得identity mapping的能力。

起因

2015年之前,在层数不多的深度网络模型中,人们通过 设置 合理的权重初始化改进激活函数 等等一系列手段,有效缓解了梯度消失,使得深度网络训练变得可行。

于是炼丹师们觉得,简单地累加网络层,训练误差(低误差意味着更强大的表达能力)在模型收敛后maybe会进一步降低。结果不仅没有,误差反而更大了(下图为20层和56层的常规网络在CIFAR-10数据集上的 训练错误率[左图]测试错误率[右图]):

这里写图片描述
这里写图片描述

研究发现,原来 如果继续加大网络的层数,梯度消失这货就会又跑出来作祟了。原来那些对应措施已经不够用了,是时候开始鸟枪换炮了。

于是 ResNet (残差) 网络 在2015年便应运而生:

这里写图片描述
这里写图片描述

残差模块

残差网络是由下面这种 残差模块 垒叠而成:

这里写图片描述
这里写图片描述

残差模块 又分为 常规残差模块[左图]瓶颈残差模块 (bottleneck residual block)[右图]

这里写图片描述
这里写图片描述

瓶颈残差模块 中的1×1卷积能够起到升降维的作用,从而令3×3卷积可以在较低维度的输入上进行。在非常深的网络中,该设计可大幅减少计算量。

残差网络

由于 残差模块 的引入,有效缓解了梯度消失的影响,使得网络模型层数可以大大增加。

下图为 ResNet-34网络VGG-19网络 的深度对比:

这里写图片描述
这里写图片描述

下图为 ResNet-152网络VGG-19网络 的深度对比。深度差距就更夸张了:

这里写图片描述
这里写图片描述

随着层数的加深,模型的表达能力自然跟着水涨船高:

这里写图片描述
这里写图片描述

ResNet横扫当年 ILSVRC 和 COCO 等竞赛一系列子任务的第一名,成为网络结构的主流,并影响至今。

Version

ResNet自身也有多个版本。基本上是层数越深,误差越小,模型表达能力越强:

这里写图片描述
这里写图片描述
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018年01月31日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Introduction
  • 起因
  • 残差模块
  • 残差网络
  • Version
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档