前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【模型优化】开源 |CVPR2020|ECA-Net深度卷积神经网络的有效通道注意,在图像分类、目标检测和实例分割方面更高效

【模型优化】开源 |CVPR2020|ECA-Net深度卷积神经网络的有效通道注意,在图像分类、目标检测和实例分割方面更高效

作者头像
CNNer
发布2020-06-19 15:58:02
1.3K0
发布2020-06-19 15:58:02
举报
文章被收录于专栏:CNNerCNNer

论文地址:http://arxiv.org/pdf/1910.03151v4.pdf 代码:https://github.com/bangguwu/ecanet 来源:天津大学智能与计算学院 天津机器学习重点实验室 论文名称:ECA-Net: Efficient Channel Attention for Deep Convolutional NeuralNetworks 原文作者:Qilong Wang

最近,通道注意力机制在改善深度卷积神经网络(CNNs)性能方面具有巨大的潜力。然而,大多数现有的方法致力于开发更复杂的注意力模块,以获得更好的性能,这不可避免地增加了模型的复杂性,加重了计算负担。为了克服性能和复杂性权衡的悖论,本文提出了一种有效的信道关注(ECA)模块,该模块只涉及少量参数k (k <= 9),但是能带来明显的性能增益。通过对SENet中的通道注意模块进行剖析,证明了避免降维和适当的跨通道交互对于学习有效的通道注意是非常重要的,可以显著的降低模型复杂度。因此,本文提出了一种无降维的局部跨通道交互策略,该策略可以通过一维卷积有效地实现。在此基础上,我们提出了一种自适应选择一维卷积核大小的方法,以确定局部跨信道相互作用的覆盖范围。本文提出的ECA模块非常高效,例如,我们的模块与ResNet50中的参数和计算量相比分别为80 vs. 24.37M和4.7e-4 GFLOPs vs. 3.86 GFLOPs,与目前Top-1的准确度相比性能提升超过2%。将ECA模块整合到现有的CNN架构中,命名为ECA-Net。以ResNets和MobileNetV2为背景,在图像分类、目标检测和实例分割方面对ECA-Net架构进行了广泛的评估。实验结果表明,与同类网络相比,ECA-Net具有更高的效率。

下面是论文具体框架结构以及实验结果:

声明:文章来自于网络,仅用于学习分享,版权归原作者所有,侵权请加上文微信联系删除。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-05-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 CNNer 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档