前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >CANet|拼接注意力网络

CANet|拼接注意力网络

作者头像
AIWalker
发布2020-08-21 14:59:48
1.1K0
发布2020-08-21 14:59:48
举报
文章被收录于专栏:AIWalker

标题&作者团队

Paper: https://arxiv.org/abs/2006.11162

Abstract

该文提出一种用于low-level视觉任务(包含压缩伪影移出、图像降噪)的通用框架,作者提出一种新颖的Concatenated Attention Neural Network(CANet)用于图像复原任务。该文的主要贡献包含以下几点:

  • 通过简洁而有效的concat与特征选择机制,构件了一种新颖的连接机制;
  • 在每个block内同时使用了像素级与通道级注意力机制,有助于提取更有强有力的特征;
  • 通过充分实验验证了所提方法在压缩伪影移出与降噪方面的SOTA性能。

Method

下图给出了该文所提网络的整体流程图,它包含N个注意力模块与跳过连接,每个注意力模块又包含多个带注意力机制的block。

Attention Residual Block

关于Block这里好像并没有什么值得深入介绍的,直接上图咯。下图给出了图像超分领域用的比较多的几个:SRGAN中的模块(见下图a)、EDSR中的ResBlock(见下图b)、RCAN中的模块(见下图c)以及本文提出的注意力模块(下图d)。下面四个图基本上也代表了图像分类网络结构在图像超分应用的演变过程,以后可能还会有类似SKNet、ResNeSt、Res2Net等形式在low-level中的应用,再看到就没什么好意外的了。

上面提到了核心模块的构成示意图,接下来再看一下PA与CS的结构示意图,见下图。其实非常简单的,略过。

Loss Function

Experiments

直接上结果了,训练过程没什么好介绍的,都是非常基本的操作。下表给出了LIVE1、BSDS500、WIN143数据集上的效果对比。

下表给出了Urban100、CBSD68数据集上的效果对比。

最后看一下所提方法的视觉效果图吧。

全文到此结束,对该文感兴趣的同学建议去看一下原文。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-08-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AIWalker 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • Abstract
  • Method
    • Attention Residual Block
      • Loss Function
      • Experiments
      相关产品与服务
      文件存储
      文件存储(Cloud File Storage,CFS)为您提供安全可靠、可扩展的共享文件存储服务。文件存储可与腾讯云服务器、容器服务、批量计算等服务搭配使用,为多个计算节点提供容量和性能可弹性扩展的高性能共享存储。腾讯云文件存储的管理界面简单、易使用,可实现对现有应用的无缝集成;按实际用量付费,为您节约成本,简化 IT 运维工作。
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档