前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【ICCV 2021】四篇好文简读-专题1

【ICCV 2021】四篇好文简读-专题1

作者头像
智能生信
发布2021-10-08 16:22:21
5800
发布2021-10-08 16:22:21
举报
文章被收录于专栏:智能生信智能生信

论文题目:

Curious Representation Learning for Embodied Intelligence

论文摘要:

这篇文章将强化学习和自监督表示学习结合起来,作者提出了CRL框架(curious representation learning),能够同时学习策略和视觉表征。该框架的思想类似于GAN,通过最大化表征学习器的误差以激励策略的explore,同时explore所带来的更多更复杂的场景更能促进表征学习器的学习。实验结果表明,该模型学到的表征在下游任务中的表现比在ImageNet上的预训练模型表现更好。

论文链接:

https://arxiv.org/pdf/2105.01060.pdf

Github链接:

https://yilundu.github.io/crl/

论文题目:

Rethinking and Improving Relative Position Encoding for Vision Transformer

论文摘要:

这是一篇改善ViT中相对位置编码的论文。针对高分辨率图像,作者首先引入了一种减少相对位置编码计算量的方法,之后提出了适用于2D图像的新的相对位置编码方法,iRPE(image RPE)。这种方法引入了双向的相对距离和self-attention中的query与相对位置嵌入之间的交互关系。iRPE模块即插即用,可以很容易整合到transformer中。在ImageNet和COCO数据上的实验结果表明,不需要额外调节超参数就能分别获得1.5%和1.3%的提升。

论文链接:

https://arxiv.org/abs/2107.14222

Github链接:

https://github.com/microsoft/Cream/tree/main/iRPE

论文题目:

GLiT: Neural Architecture Search for Global and Local Image Transformer

论文摘要:

这是第一个利用NAS寻找一个更好的ViT架构的文章。作者提出了Global-Local transformer并利用NAS搜索其最优架构。主要贡献有2点(1)为了减少计算量并提高搜索效率,作者提出了locality模块。(2)基于演化算法,作者提出了分层NAS搜索策略,该策略可以在巨大的搜索空间中寻找更有效的ViT架构。在ImageNet数据集上的大量实验结果表明和ResNet family相比,作者的方法可以找到更具有判别性的transformer变体。

论文链接:

https://arxiv.org/pdf/2107.02960.pdf

Github链接:

https://github.com/bychen515/GLiT

论文题目:

BossNAS: Exploring Hybrid CNN-transformers with Block-wisely Self-supervised Neural Architecture Search

论文摘要:

这篇文章研究利用NAS在混合空间(CNN-Transformer)上搜索网络架构。作者提出了Block-wisely Self-supervised Neural Architecture Search(BossNAS),这是一种无监督的NAS方法,解决了之前的方法中由巨大的权值共享空间和有偏的监督所带来的架构的不精确排序问题。作者提出了HyTra搜索空间,这是一种混合的CNN-transformer搜索空间,之后将搜索空间用不同的block来表示,然后利用一种新的自监督学习范式(ensemble bootstrapping)在搜索之前分别训练各个块,之后再将其视为一个整体进行搜索。在ImageNet上的实验结果表明,作者提出的BossNet-T模型获得了82.5%的准确率,比同等计算量的EfficientNet高2.4%。此外,作者的方法在CIFAR-100数据集上能够获得更高的Spearman相关系数,获得了SOTA的结果。

论文链接:

https://arxiv.org/pdf/2103.12424.pdf

Github链接:

https://github.com/changlin31/BossNAS

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-09-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 智能生信 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档