前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >卷积越大性能越强!RepLKNet一作在线分享:Transformer阴影下的超大卷积核复兴

卷积越大性能越强!RepLKNet一作在线分享:Transformer阴影下的超大卷积核复兴

作者头像
机器之心
发布2022-03-24 17:11:23
5870
发布2022-03-24 17:11:23
举报
文章被收录于专栏:机器之心

你有多久没调过 kernel size 了?在下游任务上,Transformer 明显优于传统 CNN,这是因为 Transformer 本质更强吗?传统堆叠大量 3x3 卷积的 CNN 设计模式是最优的吗? 最近,清华大学、旷视科技等机构的一项工作表明,CNN 中的 kernel size 其实是一个非常重要但总是被人忽略的设计维度:在现代模型设计的加持下,卷积核越大越暴力,既涨点又高效,甚至大到 31x31 都非常 work。即便在大体量下游任务上,超大卷积核模型 RepLKNet 与 Swin 等 Transformer 相比,性能也更好或相当。

论文地址:https://arxiv.org/abs/2203.06717 基于超大卷积核,一些挑战传统认知的结论逐渐浮现,例如:深度小kernel模型的有效感受野其实不大,较浅的大kernel模型有效感受野非常大且更像人类(模型的预测主要根据物体的形状而非局部的纹理);Transformers 性能强悍可能不是因为Attention机制,而是因为大感受野…… 在3月24日19:00-20:00的论文分享中,机器之心邀请到了 RepLKNet 论文一作、清华大学博士生丁霄汉为我们带来更深入的解读。

分享主题:RepLKNet:超大卷积核,大到31x31,卷积越大,性能越强 分享嘉宾:丁霄汉,清华大学博士生,旷视科技 Base Model 组实习生,研究方向为通用模型架构设计。在 CVPR 等会议上发表过一系列论文,提出了结构重参数化方法论及其若干应用,获得 GitHub 约 4000 Star。 分享摘要:RepLKNet 挑战了诸多行业内的传统认知,发现大到 31x31 的超大卷积核既涨点又高效,越大越涨点。归纳了在现代模型中应用大卷积的五条准则,如用小卷积核进行重参数化等。在此之上提出了一种新的架构 RepLKNet,在大模型和下游任务上取得了亮眼的结果,比 Swin 更好或相当,远超传统小 kernel 的 CNN。 分享时间:北京时间3月24日19:00-20:00 直播间:关注机动组视频号,北京时间3月24日开播。

交流群:本次直播设有 QA 环节,欢迎加入本次直播交流群探讨交流。

如群已超出人数限制,请添加机器之心小助手:syncedai2、syncedai3、syncedai4 或 syncedai5,备注「卷积」即可加入。

机器之心 · 机动组 

机动组是机器之心发起的人工智能技术社区,聚焦于学术研究与技术实践主题内容,为社区用户带来技术线上公开课、学术分享、技术实践、走近顶尖实验室等系列内容。机动组也将不定期举办线下学术交流会与组织人才服务、产业技术对接等活动,欢迎所有 AI 领域技术从业者加入。

  • 点击阅读原文,访问机动组官网,观看往期回顾;
  • 关注机动组服务号,获取每周直播预告。
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-03-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
云直播
云直播(Cloud Streaming Services,CSS)为您提供极速、稳定、专业的云端直播处理服务,根据业务的不同直播场景需求,云直播提供了标准直播、快直播、云导播台三种服务,分别针对大规模实时观看、超低延时直播、便捷云端导播的场景,配合腾讯云视立方·直播 SDK,为您提供一站式的音视频直播解决方案。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档