前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >用于视频超分辨率的可变形三维卷积

用于视频超分辨率的可变形三维卷积

作者头像
计算机视觉
发布2020-12-29 10:00:43
7820
发布2020-12-29 10:00:43
举报
文章被收录于专栏:计算机视觉工坊

作者单位:电子科技大学、国防科技大学

译者:Wangsy

论文、代码地址:在公众号「3D视觉工坊」,后台回复「三维卷积」,即可直接下载。

看点

问题:之前的方法的空间特征提取和时间运动补偿往往是顺序的,无法充分利用时空信息

方法:提出了一个利用可变形3D卷积(D3D)的可变形三维卷积网络(D3Dnet)来整合视频的时空信息

优点:D3D作为一个可以同时整合时间和空间的组件,具有优越的时空建模能力和灵活的运动感知建模能力,同时,D3Dnet还实现了当时的SOTA

方法

可变形3D卷积

可变形3D卷积把3D卷积和在二维空间的可变性卷积结合在了一起,普通的C3D通过以下两个步骤实现:

1)对输入特征x使用三维卷积核进行采样

2)用函数w对采样值进行加权求和

具体地说,通过一个膨胀率为1的3×3×3卷积核的特征可以表示为:

D3D是在C3D的基础上改进而来的,它可学习偏移量从而扩大空间感受野。首先将尺寸为C×T×W×H的输入特征输入到C3D,以生成尺寸为2N×T×W×H的特征偏移,这些特征偏移的通道数被设置为2N。然后,利用学习到的特征偏移引导普通C3D采样网格(即浅橙色立方体)的变形,生成D3D采样网格(即深橙色立方体)。最后,利用D3D采样网格生成输出特征,公式如下:

可变形三维卷积网络

首先将具有7帧的视频序列馈入到C3D层以生成特征,然后将这些特征馈入到5个残差D3D(resD3D)块以实现运动感知的深层时空特征提取。然后利用瓶颈层对提取的特征进行融合。最后,由6个级联的残差块和一个亚像素卷积层来进行SR重建。使用均方误差(MSE)作为网络的训练损失。

实验

实施细节

使用Vimeo-90k数据集作为训练集。采用BI的降质方式,然后,随机裁剪成32×32大小的patch作为输入。使用随机翻转和旋转来增加训练数据。此外,还额外使用基于运动的视频完整性评价指标MOVIE和时间MOVIE(T-MOVIE)来评价时间一致性。

消融实验

对于两阶段模型,使用n个残差块和可变形对齐模块替换resD3D块去依次执行空间特征提取和时间运动补偿。对于单阶段模型,将resD3D块替换为resC3D块,以便在不发生空间变形的情况下将这两个步骤整合在一起,对比如下图:

采用C3D比双阶段方法高0.1的PSNR。采用resD3D比C3D高0.4PSNR,但是要增加0.19M的参数量。

D3Dnet在不同输入帧数(3、5、7)下的结果如下图所示

可以观察到,随着输入帧数的增加,性能有所提高。具体地说,当输入帧数从3增加到7时,PSNR提高了0.3dB。这是因为更多的输入帧引入了额外的时间信息,这对视频SR是有利的。

量化评估

下图的性能评估中,不计算前两帧和后两帧。此外,EDVR和DUF-VSR没有包括在下图的比较中,因为计算成本差距很大。

在时间一致性上表现良好。运算时间为VID4测试集20帧测试时间,相比其他没有使用3D卷积的方法,仍存在计算时间长的问题。

备注:作者也是我们「3D视觉从入门到精通」特邀嘉宾:一个超干货的3D视觉学习社区

本文仅做学术分享,如有侵权,请联系删文。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-12-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 计算机视觉工坊 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 可变形3D卷积
  • 可变形三维卷积网络
  • 实施细节
  • 消融实验
  • 量化评估
相关产品与服务
图像处理
图像处理基于腾讯云深度学习等人工智能技术,提供综合性的图像优化处理服务,包括图像质量评估、图像清晰度增强、图像智能裁剪等。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档