前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ResNet-RS:谷歌领衔调优ResNet,性能全面超越EfficientNet系列 | 2021 arxiv

ResNet-RS:谷歌领衔调优ResNet,性能全面超越EfficientNet系列 | 2021 arxiv

原创
作者头像
VincentLee
发布2022-07-06 11:36:13
3140
发布2022-07-06 11:36:13
举报

论文重新审视了ResNet的结构、训练方法以及缩放策略,提出了性能全面超越EfficientNet的ResNet-RS系列。从实验效果来看性能提升挺高的,值得参考undefined 

来源:晓飞的算法工程笔记 公众号

论文: Revisiting ResNets: Improved Training and Scaling Strategies

Introduction


 视觉模型的准确率由结构、训练方式和缩放策略共同决定,新模型的实验通常使用了新的训练方法和超参数,不能直接和过时的训练方法得到的旧模型结果进行对比。为此,论文打算在ResNet上验证不同的训练方法和缩放策略的影响。

 论文的主要贡献如下:

  • 在不改变模型结构的前提下,通过实验验证正则化方法及其组合的作用,得到能提升性能的正则化策略。
  • 提出简单、高效的缩放策略:1)如果实验配置可能出现过拟合(比如训练周期长),优先缩放深度,否则缩放宽度。2)更慢地缩放输入分辨率。
  • 将上面的正则化策略和缩放策略实验结果应用到ResNet提出ResNet-RS,性能全面超越EfficientNet。
  • 使用额外的130M伪标签图片对ResNet-RS进行半监督预训练,ImageNet上的性能达到86.2%,TPU上的训练速度快4.7倍。
  • 将通过自监督获得的ResNet-RS模型,在不同的视觉任务上进行fine-tuned,性能持平或超越SimCLR和SimCLRv2。
  • 将3D ResNet-RS应用到视频分类,性能比baseline高4.8%。

Characterizing Improvements on ImageNet


 模型的提升可以粗略地分为四个方向:结构改进、训练/正则方法、缩放策略和使用额外的训练数据。

Architecture

 新结构的研究最受关注,神经网络搜索的出现使得结构研究更进了一步。另外还有一些脱离经典卷积网络的结构,比如加入self-attention或其它替代方案,如lambda层。

Training and Regularization Methods

 当模型需要训练更长时间时,正则方法(如dropout、label smoothing、stochastic depth、dropblock)和数据增强能有效地提升模型泛化能力,而更优的学习率调整方法也能提升模型最终的准确率。为了与之前的工作进行公平对比,一些研究仅简单地使用无正则的训练设置,这样显然不能体现研究的极致性能。

Scaling Strategies

 提升模型的维度(宽度、深度和分辨率)也是提升准确率的有效方法。特别是在自然语言模型中,模型的规模对准确率有直接的影响,而在视觉模型中也同样有效。随着计算资源的增加,可以适当增加模型的维度。为了将此适配系统化,EfficentNet提出了混合缩放因子方法,用于缩放时平衡网络深度、宽度和分辨率之间的关系,但论文发现这个方法并不是最优的。

Additional Training Data

 另一个有效提升性能的方法是使用额外的数据集进行预训练。在大规模数据集下预训练的模型,能够在ImageNet上达到很好的性能。需要注意的是,这里并非必须要标注好的数据集,使用伪标签的半监督训练,同样也能达到很好的性能。

Methodology


Architecture

 在结构上,ResNet-RS仅采用了ResNet-D加SENet的改进,这些改进在当前的模型中经常被采用。

  • ResNet-D 对原生的ResNet进行了四处改进:1)将stem的$7\times 7$卷积替换为3个$3\times 3$卷积。2)交换下采样模块的residual路径的头两个卷积的stride配置。3)将下采样模块的skip路径中的stride-2 $1\times 1$卷积替换为stride-2 $2\times 2$平均池化和non-strided $1\times 1$卷积。4)去掉stem中的stride-2 $3\times 3$最大池化层,在下个bottleneck的首个$3\times 3$卷积中进行下采样。
  • Squeeze-and-Excitation SE模块通过跨通道计算获得的各通道的权值,然后对通道进行加权。设置ratio=0.25,在每个bottleneck中都加入。

Training Method

 研究当前SOTA分类模型中使用的正则化和数据增强方法,以及半监督/自监督学习。

  • Matching the EfficientNet Setup

 训练方法与EfficientNet类似,共训练350轮,有以下细微的差异:1)使用cosine学习率调整方法。2)使用RandAugment增强数据。EfficientNet最初使用AutoAugment增强数据,使用RandAugment结果变化不大。3)为了简便,使用Momentum优化器而不是RMSProp优化器。

  • Regularization 使用weight decay,label smoothing,dropout和stochastic depth进行正则化。
  • Data Augmentation 使用RandAugment数据增强作为额外的正则化器,对每张图片使用一系列随机增强方法。
  • Hyperparameter Tuning

 为了快速选择适合不同正则方法和训练方法的超参数,使用包含ImageNet的2%(1024分片取20分片)数据构成minival-set,而原本的ImageNet验证集作为validation-set。

Improved Training Methods


Additive Study of Improvements

 论文对各训练方法、正则化方法、结构优化进行了叠加实验,结果如表2所示,训练方法和正则化方法带来的提升大约占3/4的总精度提升。

Importance of decreasing weight decay when combining regularization methods

 论文在使用RandAugment和label smoothing时,没有改变默认的weight decay设置,性能有提升。但在加入dropout或stochastic depth后,性能出现了下降,最后通过降低weight decay来恢复。weight decay用于正则化参数,在搭配其它正则化处理时,需要降低其值避免过度正则化。

Improved Scaling Strategies


 为了探索模型缩放的逻辑,预设宽度比例0.25, 0.5, 1.0, 1.5, 2.0、深度比例26, 50, 101, 200, 300, 350, 400以及分辨率128, 160, 224, 320, 448,组合不同的比例进行模型性能的实验。每个组合训练350周期,训练配置与SOTA模型一致,在模型大小增加时,相应地加强正则化的力度。

 主要有以下发现:

  • FLOPs do not accurately predict performance in the bounded data regime。在模型较小时,模型性能跟模型大小成正相关关系,但当模型变得越大后,这种关系就变得越不明显了,转而跟缩放策略有关。使用不同缩放策略将模型缩放到相同大小,模型越大,性能差异越大。
  • The best performing scaling strategy depends on the training regime。不同训练周期下,不同缩放版本的性能曲线差异较大,因此缩放策略的最好性能跟实验的设置有很大关系。

Strategy #1 - Depth Scaling in Regimes Where Overfitting Can Occur

 Depth scaling outperforms width scaling for longer epoch regimes。从图3右可以看出,在350周期的训练配置下,深度缩放在任意输入分辨率下都要比宽度缩放更有效。宽度缩放对过拟合是次优的,甚至有时会导致性能损失,这可能由于宽度缩放引入了过多参数,而深度缩放仅引入少量参数。

 Width scaling outperforms depth scaling for shorter epoch regimes,从图3左可以看出,在10周期的训练配置下,宽度缩放更优。而从图3中可以看出,在100周期的训练配置下,搭配不同的输入分辨率,深度缩放和宽度缩放的性能各有差异。

Strategy #2 - Slow Image Resolution Scaling

 从图2可以看出,输入分辨率越大,可带来的收益增加越少,也就是性价比越低。因此,在输入分辨率缩放上,论文采取最低优先级,从而更好地折中速度和准确率。

Two Common Pitfalls in Designing Scaling Strategies

 在分析缩放策略时,论文发现了两个常见的错误做法:

  • Extrapolating scaling strategies from small-scale regimes,从小尺寸的实验设置进行研究。以往的搜索策略通常使用小模型或较短的训练周期进行研究,这种场景最优的缩放策略不一定能迁移到大模型和较长周期下的训练。因此,论文不推荐在这种场景下花费大力气进行缩放策略实验。
  • Extrapolating scaling strategies from a single and potentially sub-optimal initial architecture,从次优的初始结构进行缩放会影响缩放的结果。比如EfficientNet的混合缩放固定了计算量和分辨率进行搜索,然而分辨率也是影响准确率的一个影响因素。因此,论文综合宽度、深度和分辨率进行缩放策略研究。

Summary of Improved Scaling Strategies

 对于新任务,论文建议先使用小点的训练子集,对不同尺寸的配置进行完整周期训练测试,找到对准确率影响较大的缩放维度。对于图片分类,缩放策略主要有以下两点:

  • 如果实验配置可能出现过拟合(比如训练周期长),优先缩放深度,否则缩放宽度。
  • 缓慢地缩放输入分辨率。

 论文最终搜索得到的ResNet-RS系列的配置如表7所示,在准确率匹配EfficientNet的前提下,TPU上的计算速度快1.7~2.7倍。需要说明的是,虽然ResNet-RS的计算量和参数量普遍比EfficientNet高,但ResNet-RS的实际计算速度和内存使用都更优秀,说明计算量和参数量并不能直接代表速度大小和内存占用。

Experiment


 对EfficentNet进行优化后对比。

 半监督效果对比。

 自监督在不同任务上的效果对比。

 视频分类的对比实验。

Conclusion


 论文重新审视了ResNet的结构、训练方法以及缩放策略,提出了性能全面超越EfficientNet的ResNet-RS系列。从实验效果来看性能提升挺高的,值得参考。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Introduction
  • Characterizing Improvements on ImageNet
    • Architecture
      • Training and Regularization Methods
        • Scaling Strategies
          • Additional Training Data
          • Methodology
            • Architecture
              • Training Method
              • Improved Training Methods
                • Additive Study of Improvements
                  • Importance of decreasing weight decay when combining regularization methods
                  • Improved Scaling Strategies
                    • Strategy #1 - Depth Scaling in Regimes Where Overfitting Can Occur
                      • Strategy #2 - Slow Image Resolution Scaling
                        • Two Common Pitfalls in Designing Scaling Strategies
                          • Summary of Improved Scaling Strategies
                          • Experiment
                          • Conclusion
                          领券
                          问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档