重磅干货,第一时间送达

标题&作者团队
本文是浙江大学于2019提出的一种基于小波的图像超分方案,算是比较“老”的一种方案了。不过考虑到它的创新:将小波变换与深度学习相结合,本文还是值得略读一番。不同于其他深度学习图像超分方案,本文采用小波变换提取图像的四组系数并作为网络的输入,预测残差图像的小波系数。这不同于常规方案的直接进行图像复原或者残差图像复原,小波系数的预测使得其具有更好的鲁棒性。
现有的基于深度学习的图像超分往往采用更深、更宽的架构提升重建图像质量,这就导致了更大的计算量、更慢的推理速度。尽管也有研究员设计轻量型网络用语图像超分,但往往造成性能损失。
本文提出一种基于小波的残差注意力网络(wavelet-based residual attention network, WRAN)用于图像超分。具体来说,该网络的输入与标签是由2D小波变换生成的四组系数,通过显式地将图像拆分为高低频四个通道有助于降低训练难度。与此同时,我们提出多核卷积构建基础模块,它可以自适应集成不同感受野的特征;此外,我们还采用了残差注意力模块,它包含通道注意力与空域注意力机制。因此所提方案能够以更轻量方式从通道与空域维度聚焦于潜在纹理。
本文通过充分的实验表明:所提WRAN具有计算高效性,同时取得了SOTA超分性能。本文的主要贡献包含以下几点:

wavelet
上图给出了小波变换的示意图,小波变换会将输入图像变换为四组系数
。本文采用Haar小波进行变换。

visual
上图给出了2D小波变换示意图,输入X将被分解为四个子带系数,它们分别对应低频、垂直、水平以及对角信息,每个子带的分辨率为输入的一半。此外需要注意的是:小波变换及其逆变换均可逆,不会造成信息损失。

framework
上图给出了本文所提网络架构示意图,它的输入
为bicubic图像
经由小波变换处理后得到的四组系数。首先,我们采用卷积对其提取浅层特征:
由于小波变换特性,网络的输入包含负值,因此我们采用LeakyReLU激活函数。该网络的主体部分由L个带注意力机制的多核卷积模块构成,同时引入了局部跳过连接辅助信息流动,定义如下:
为克服梯度消失问题,我们将不同模块的输入进行拼接:
在完成特征融合后,我们采用瓶颈结构进一步压缩特征,定义如下:
需要注意:该网络的目标是重建残差图像的小波变换系数,,此时有:

上图为多核卷积结构,它受启发于Inception得到,它包含四个分支,每个分支具有不同的感受野:
,每个卷积后接LeakyReLU激活函数。完成不同尺度特征提取后我们对其进行拼接并进行维度压缩。

layer-attention
上图为通道注意力模块,它与常规SE模块存在一些不同之处。SE采用全局均值池化提取平均特征,而这里不仅采用全局均支池化,同时还采用最大值池化。整个计算过程还是比较简单的,所以就先略过了。

spatial-attention
上图给出本文所采用的空域注意力模块,类似上面的通道注意力,它同样采用联合均值池化与最大值池化。整体计算过程如下:
然后将上述两者拼接后送入
卷积中计算注意力图,计算方式如下:
最后将上述所得注意力图与输入相乘得到增强后的特征:
注:损失函数方面采用了常规的
损失。
为验证所提方案的有效性,我们采用DIV2K数据进行模型训练,测试数据为Set5、Set14、B100以及Urban100。评价准则采用了最常用的PSNR与SSIM。

parameter
上图对比了模块数、通道数对于模型性能的影响对比。可以看到:

上图对比了激活函数的参数
与通道注意力模块中的下降因子r的性能影响对比。可以看到:
时,模型取得了最佳性能;
时,模型取得了最佳性能。

上表对比了本文所提三个不同模块组合时的性能对比,很明显:

上表对比了不同结构模块组合时的性能对比,可以看到:
max+avg的注意力组合取得了最佳性能。
上表对比了所提方法与其他超分方案的性能对比,可以看到:RCAN与WRAN取得了最佳的性能;在小尺度超分任务上WRAN性能更佳;在大尺度超分上RCAN性能更佳。此外,附上X4超分任务下不同方案的视觉效果对比图。
