前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >更快、更灵活的Transformer图像去雾网络

更快、更灵活的Transformer图像去雾网络

作者头像
计算机视觉研究院
发布2023-09-27 12:35:46
2070
发布2023-09-27 12:35:46
举报
文章被收录于专栏:计算机视觉战队

计算机视觉研究院专栏

Column of Computer Vision Institute

介绍了一种新的多支路线性Transformer网络,称为MB-TaylorFormer,能够有效且高效的进行图像去雾任务。

01

摘要

02

新框架

新框架:

Taylor Expanded Multi-head Self-Attention

03

实验

Main Results

上图给出了合成数据集与真实数据上的视觉效果对比,可以看到:MB-TaylorFormer不仅在阴影处更好的恢复了细节,同时也有效的避免了伪影和色偏。

03

Ablation Studies

Effectiveness of multi-scale attention refinement module

上表表明MSAR模块的设计能够以一种极轻量化的设计有效提升TaylorFormer的性能

Comparison with other linear self-attention modules

上表通过T-MSA和多种不同的线性Transformer的对比,证明了T-MSA在去雾任务上的有效性。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2023-09-27 09:00,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 计算机视觉战队 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档