前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >字节&约翰斯·霍普金斯&上交提出iBOT框架,基于MIM进行自监督训练,在ImageNet-1K上达到86.3%的微调精度!

字节&约翰斯·霍普金斯&上交提出iBOT框架,基于MIM进行自监督训练,在ImageNet-1K上达到86.3%的微调精度!

作者头像
CV君
发布2021-12-13 14:26:59
6870
发布2021-12-13 14:26:59
举报
文章被收录于专栏:我爱计算机视觉

写在前面

语言Transformer的成功主要归功于masked language modeling(MLM) 的预训练任务,其中文本首先被标记为语义上有意义的片段。在这项工作中,作者研究了masked image modeling(MIM) ,并指出了使用语义上有意义的视觉标记器(visual tokenizer) 的优势和挑战。作者提出了一个自监督的框架iBOT ,它可以通过在线标记器(online tokenizer) 执行mask预测。

具体而言,作者对masked patch tokens进行自蒸馏,并将教师网络作为在线标记器,同时对class token进行自蒸馏以获得视觉语义。在线标记器可与MIM目标共同学习,无需多阶段训练pipeline,其中tokenizer需要事先进行预训练。

作者通过在ImageNet-1K上实现81.6%的linear probing精度和86.3%的微调精度,展示了iBOT的有效性。除了SOTA的图像分类结果外,作者还强调了局部语义模式,这有助于模型获得针对常见损坏的强大鲁棒性,并在密集的下游任务(例如,目标检测、实例分割和语义分割)上取得SOTA的结果。

1. 论文和代码地址

iBOT: Image BERT Pre-Training with Online Tokenizer

论文地址:https://arxiv.org/abs/2111.07832

代码地址:未开源

2. Motivation

Masked Language Modeling(MLM) 是一种流行的语言模型预训练范式,它首先随机mask然后重建一组输入token。MLM预训练的Transformer已证明了其可扩展到大容量模型和数据集,目前成为语言任务的有效方法。

然而,视觉Transformer(ViT)的潜力最近开始彻底改变计算机视觉研究,但在很大程度上还没有得到充分的开发。目前视觉任务中的大多数无监督训练都是基于全局视图,忽略了图像的内部结构,这与MLM的局部建模是不同的

在本文中,作者探索了与MLM相似的Masked Image Modeling(MIM)来进行实现更好的视觉Transformer。

MLM中最关键的组成部分之一是语言标记器(lingual tokenizer) ,它将语言拆分为语义上有意义的token,如BERT中的WordPiece。类似地,MIM的关键在于视觉标记器的正确设计,该标记器将mask patch转换为监督目标模型的信号(如上图所示)。

然而,与词频统计分析自然产生的语言语义不同,由于图像的连续性,视觉语义无法如此容易地提取。视觉语义是通过引导在线表示逐渐出现的,它强制执行损坏图像视图的相似性。

该属性直观地表示一个多阶段的训练pipeline,在训练目标模型之前,需要首先训练一个现成的语义丰富的标记器。然而,由于获取视觉语义是标记器和目标模型的共同目的,因此,可以联合优化标记器和目标模型的单阶段训练pipeline有待进一步探索。

为此,作者提出了一个新的框架iBOT(image BERT pre-training with Online Tokenizer) ,通过标记器很好地处理上述挑战来执行MIM。作者通过将MIM表述为知识提取(KD)来激励iBOT,学习从标记器中提取知识,并进一步在作为在线标记器的twin教师的帮助下为MIM执行self-distillation。

目标网络接收一个mask图像,而在线标记器接收到原始图像。目标是让目标网络将每个mask patch token恢复到其相应的tokenizer输出

online tokenizer主要解决了两大挑战。一方面,tokenizer通过在class token上强制执行交叉视图图像的相似性来捕获高级视觉语义 。另一方面,本文的tokenizer不需要额外的训练阶段作为预处理设置,因为它通过动量更新与MIM联合优化

online tokenizer使iBOT能够在特征表示方面获得优异的性能。具体而言,iBOT将k-NN、linear probing和微fine-tuning设置下的ImageNet-1K分类基准分别提高到77.1%、79.5%和83.8%(使用ViT Base/16),比之前的最佳结果高出1.0%、1.3%和0.2%。

当使用ImageNet-22K进行预训练时,使用ViT-L/16的iBOT可实现81.6%的linear probing精度和86.3%的微调精度,两者均比以前的最佳结果高0.3%。除此之外,当迁移到其他数据集或在半监督和非监督分类设置下时,这种提升也是有效的。

本文提出的方法可以帮助模型在全局和局部尺度上进行图像识别。作者发现,patch token中学习到的语义模式有助于该模型在线性分类和抗常见图像损坏的鲁棒性方面得到提升。

当它被迁移到下游任务时,在与图像分类、目标检测、实例分割和语义分割相关的下游任务中,iBOT超过了以前的方法。实验结果表明,iBOT在很大程度上弥补了masked modeling预训练在语言和视觉Transformer之间的差距。

3. 方法

在本节中,作者提出了iBOT,将自蒸馏作为token生成的自监督目标,并通过自蒸馏执行MIM。在上图中说明了iBOT的框架,下图中展示了伪代码。

3.1 Framework

首先,作者对两个增强视图u和v进行mask,得到他们的mask视图和。以为例,学生网络输出mask视图的结果,教师网络输出没有mask视图的结果。MIM在iBOT的训练目标为:

\mathcal{L}_{\mathrm{MIM}}=-\sum_{i=1}^{N} m_{i} \cdot P_{\boldsymbol{\theta}^{\prime}}^{\mathrm{patch}}\left(\boldsymbol{u}_{i}\right)^{\mathrm{T}} \log P_{\boldsymbol{\theta}}^{\mathrm{patch}}\left(\hat{\boldsymbol{u}}_{i}\right)
\mathcal{L}_{\mathrm{MIM}}=-\sum_{i=1}^{N} m_{i} \cdot P_{\boldsymbol{\theta}^{\prime}}^{\mathrm{patch}}\left(\boldsymbol{u}_{i}\right)^{\mathrm{T}} \log P_{\boldsymbol{\theta}}^{\mathrm{patch}}\left(\hat{\boldsymbol{u}}_{i}\right)
\mathcal{L}_{\mathrm{MIM}}=-\sum_{i=1}^{N} m_{i} \cdot P_{\boldsymbol{\theta}^{\prime}}^{\mathrm{patch}}\left(\boldsymbol{u}_{i}\right)^{\mathrm{T}} \log P_{\boldsymbol{\theta}}^{\mathrm{patch}}\left(\hat{\boldsymbol{u}}_{i}\right)

对于,作者也采用来对称的方式来计算和的CE loss。

由主干网络加投影头组成的教师网络是一个visual tokenizer,它为每个mask patch token生成在线token分布。iBOT中使用的tokenizer可以联合学习MIM目标,而无需在额外阶段进行预训练。

为了确保online tokenizer在语义上有意义,作者对交叉视图图像的[CLS] token执行自蒸馏,这样就可以通过引导获得视觉语义,就像大多数自监督方法所实现的那样。

为了进一步利用从[CLS] token上的self-distillatin获得的语义抽象能力,作者共享[CLS] token和patch token的投影头参数,即,。根据实验结果,作者发现它比使用单独的head产生更好的结果。

与语义几乎确定的tokenized words不同,图像patch的语义是模糊的。因此,tokenization作为一种one-hot discretization对于图像来说可能是次优的。在iBOT中,作者使用softmax之后的token分布,而不是一个one-hot id作为监督信号,这在iBOT预训练中起着重要作用。

3.2 Implementation

作者使用具有不同参数量的Vision Transformer和Swin Transformer,ViT-S/16、ViT-B/16、ViT-L/16和SwinT/ {7,14} 作为主干网络f。默认情况下,作者使用AdamW优化器和1024的batch size在ImageNet-1K训练集上预训练iBOT。作者预训练了ViT-S/16 800个epoch,ViT-B/16 400个epoch,Swin-T/ { 7,14 } 300个epoch。

4.实验

4.1 ImageNet-1K上的分类

k-NN and Linear Probing

为了评估预训练特征的质量,作者在冻结表示上使用k-近邻分类器(k-NN)或线性分类器。上表展示了ImageNet1K上KNN和Linear Probing的结果。

Fine-Tuning

上表展示了ImageNet-1K上微调的结果,iBOT通过ViT-S/16和ViTB/16分别达到82.3%和83.8%的Top-1精度。

上表展示了ImageNet-22K上预训练之后,在ImageNet-1K上的微调实验结果。使用ImageNet-22K预训练的iBOT使用ViT-B/16和ViT-L/16分别达到84.4%和86.3%的top-1精度。

Semi-Supervised and Unsupervised Learning

上表展示了ImageNet-1K上的半监督学习的实验结果。

上表展示了ImageNet-1K上的无监督学习的实验结果。

4.2 下游任务

Object Detection and Instance Segmentation on COCO & Semantic Segmentation on ADE20K

上表展示了COCO目标检测,实例分割和ADE20K数据集上语义分割的实验结果。

Transfer Learning

上表展示了不同数据集上分类的迁移结果。

4.3 实验分析

上图展示了patch token的模式布局。两幅左图展示了汽车前照灯和狗耳朵的图案,它们共享部分语义。两幅右图展示了共享纹理的图片。

上图展示了部分linear probing的实验结果。

上图展示了自注意力map的可视化,来自多个head的自注意map以不同的颜色显示。

5. 总结

在这项工作中,作者研究了视觉Transformer的类似BERT的预训练,并强调了语义上有意义的visual tokenizer的重要性。

作者提出了一个自监督的框架iBOT,该框架通过online tokenizer的自蒸馏来执行masked image modeling,在与分类、目标检测、实例分割和语义分割相关的下游任务上实现SOTA的结果。

此外,作者为MIM训练的模型确定了一种局部级语义,它不仅有助于识别精度,而且有助于抵抗常见图像损坏。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-12-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 我爱计算机视觉 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 3.1 Framework
  • 3.2 Implementation
  • 4.1 ImageNet-1K上的分类
    • k-NN and Linear Probing
      • Fine-Tuning
        • Semi-Supervised and Unsupervised Learning
        • 4.2 下游任务
          • Object Detection and Instance Segmentation on COCO & Semantic Segmentation on ADE20K
            • Transfer Learning
            • 4.3 实验分析
            相关产品与服务
            图像识别
            腾讯云图像识别基于深度学习等人工智能技术,提供车辆,物体及场景等检测和识别服务, 已上线产品子功能包含车辆识别,商品识别,宠物识别,文件封识别等,更多功能接口敬请期待。
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档