前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【Cutout】《Improved Regularization of Convolutional Neural Networks with Cutout》[通俗易懂]

【Cutout】《Improved Regularization of Convolutional Neural Networks with Cutout》[通俗易懂]

作者头像
全栈程序员站长
发布2022-11-08 15:52:24
4600
发布2022-11-08 15:52:24
举报
文章被收录于专栏:全栈程序员必看

大家好,又见面了,我是你们的朋友全栈君。

在这里插入图片描述
在这里插入图片描述

arXiv-2017


文章目录


1 Background and Motivation

随着深度学习技术的发展,CNN 在很多计算机视觉任务中崭露头角,但 increased representational power also comes increased probability of overfitting, leading to poor generalization.

为提升模型的泛化性能,模拟 object occlusion, 作者提出了 Cutout 数据增强的方法——randomly masking out square regions of input during training,take more of the image context into consideration when making decisions.

在这里插入图片描述
在这里插入图片描述

This technique encourages the network to better utilize the full context of the image, rather than relying on the presence of a small set of specific visual features(which may not always be present).

2 Related Work

  • Data Augmentation for Images
  • Dropout in Convolutional Neural Networks
  • Denoising Autoencoders & Context Encoders(self-supervised,挖去部分,网络补上,以强化特征)

3 Advantages / Contributions

监督学习中提出 Cutout 数据增强方法(dropout 的一种形式,自监督中也有类似方法)

4 Method

初始版:remove maximally activated features

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

最终版:随机中心点,正方形遮挡(可以在图片外,被图片边界截取后就不是正方形了)

使用时需要中心化一下(也即减去均值)

the dataset should be normalized about zero so that modified images will not have a large effect on the expected batch statistics.

5 Experiments

5.1 Datasets and Metrics

  • CIFAR-10(32×32)
  • CIFAR-100(32×32)
  • SVHN(Street View House Numbers,32×32)
  • STL-10(96×96)
在这里插入图片描述
在这里插入图片描述

评价指标为 top1 error

5.2 Experiments

1)CIFAR10 and CIFAR100

单个实验都重复跑了5次,±x

在这里插入图片描述
在这里插入图片描述

下图探索 cutout 中不同 patch length 的影响,

在这里插入图片描述
在这里插入图片描述

2)STL-10

在这里插入图片描述
在这里插入图片描述

3)Analysis of Cutout’s Effect on Activations

在这里插入图片描述
在这里插入图片描述

引入 cutout 后浅层激活均有提升,深层 in the tail end of the distribution.

The latter observation illustrates that cutout is indeed encouraging the network to take into account a wider variety of features when making predictions, rather than relying on the presence of a smaller number of features

再聚焦下单个样本的

在这里插入图片描述
在这里插入图片描述

6 Conclusion(own) / Future work

  • code:https://github.com/uoguelph-mlrg/Cutout
  • memory footprint 内存占用
  • 相关工作介绍 drop out 时,文章中出现了这句话:All activations are kept when evaluating the network, but the resulting output is scaled according to the dropout probability dropout在测试时应该如何处理?
在这里插入图片描述
在这里插入图片描述
  • dropout 作用在 FC 上的效果比 Conv 上好,作者的解释是:1)convolutional layers already have much fewer parameters than fully-connected layers; 2)neighbouring pixels in images share much of the same information(丢一些无伤大雅)
  • cutout——连续区域的仅作用在输入层的 dropout 技术 Dropout技术一览:可视化解释以及在DNN/CNN/RNN中的应用
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年9月24日 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 文章目录
  • 1 Background and Motivation
  • 2 Related Work
  • 3 Advantages / Contributions
  • 4 Method
  • 5 Experiments
    • 5.1 Datasets and Metrics
      • 5.2 Experiments
      • 6 Conclusion(own) / Future work
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档