前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >MMSelfSup - MAE 尝鲜版来啦!

MMSelfSup - MAE 尝鲜版来啦!

作者头像
OpenMMLab 官方账号
发布2022-01-18 09:08:25
6120
发布2022-01-18 09:08:25
举报
文章被收录于专栏:OpenMMLab

MAE 是 Kaiming He 和 Xinlei Chen 于2021年末推出的基于 Mask Image Modelling 的视觉自监督算法。其简单的结构以及优良的性能让业界及学术界的朋友们为之惊叹,许多同学也跃跃欲试。鉴于社区对 MAE 的迫切期待,MMSelfSup 今天隆重推出 MAE 尝鲜版!

Paper: https://arxiv.org/abs/2111.06377

MMSelfSup 中实现的 MAE(experimental 版本)参考了 MAE-pytorch ,我们对其中的各种模块进行进一步的整理和抽象,例如我们将其中 ViT 部分抽象为 backbone, neck 以及 head 的组合,以模块化的方式进行搭建。

MAE-pytorch 网址:

https://github.com/pengzhiliang/MAE-pytorch

此外,我们分离出其中的一些基础模块,例如 optimizer, learning scheduler 等,改用 MMCV 中的基础模块,从而使得调参更加容易。总体来说,MAE experimental 具有以下几个特色:

Highlights

- 代码结构更加清晰,理解更加容易

- 算法模块化,修改更加便利

- 无缝衔接 MMCV,调参更加强力

Pre-train

代码语言:javascript
复制
bash tools/dist_train.sh configs/selfsup/mae/mae_vit-b-16_8xb512-coslr-400e_in1k.py 8

Fine-tune

代码语言:javascript
复制
GPUS=8 bash tools/benchmarks/classification/dist_train_linear.sh configs/benchmarks/classification/imagenet/vit-b-16_8xb128-coslr-100e-finetune_in1k.py ${CKPT_PATH}

写在最后

我们希望开源 experimental MAE 能够给广大社区用户提供复现 MAE 的一些参考,同时也期待社区用户积极使用 experimental MAE 和反馈,同我们一起添砖加瓦!除此之外,正式版本正在积极准备中哦,敬请期待 !

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-01-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 OpenMMLab 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档