前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >论文阅读: ResNeXt

论文阅读: ResNeXt

作者头像
JNingWei
发布2018-09-27 14:39:03
1.6K0
发布2018-09-27 14:39:03
举报
文章被收录于专栏:JNing的专栏JNing的专栏

Introduction

ResNeXt是ResNet的加强版,将ResNet原本简单的“plain版residual module”替换成了“Inception版residual module”:

这里写图片描述
这里写图片描述

每个“Inception版residual module”内部各通道最后进行 按位加

这里写图片描述
这里写图片描述

标准计算公式如下:

这里写图片描述
这里写图片描述

作者还给出了不同型号的“Inception版residual module”:

这里写图片描述
这里写图片描述

以下是ResNeXt网络结构说明书:

这里写图片描述
这里写图片描述

Result

在ImageNet-1K上:

  • ResNeXt可以比ResNet收敛更快:
这里写图片描述
这里写图片描述
  • 在FLOP为ResNet两倍的情况下,ResNeXt分类效果略微强过ResNet:
这里写图片描述
这里写图片描述

在ImageNet-5K上:

  • ResNeXt分类错误率更低一点:
这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

在CIFAR-10上:

  • ResNeXt分类top-1错误率更低一点:
这里写图片描述
这里写图片描述

在COCO上:

  • ResNeXt分类AP值更高一点:
这里写图片描述
这里写图片描述

Innovation

移花接木: “plain版残差结构” + “Inception设计” -> “Inception版残差结构”

Thinking

  • ResNet因为结构简单,效果好,成为了日常使用时各network的首选basemodel。
  • ResNet与其加强版的ResNeXt、DPN互为补充。前者因为结构简单、效果好,成为了日常做研究时的首选basemodel。后两者结构复杂,在大数据集和更深的网络上效果略优于ResNet,因此成为论文刷AP、比赛打榜的首选basemodel。

[1] Aggregated Residual Transformations for Deep Neural Networks [2] Deep Residual Learning for Image Recognition 笔记

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018年04月24日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Introduction
  • Result
  • Innovation
  • Thinking
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档