前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >CVPRW22 水下成像的神经渲染工作

CVPRW22 水下成像的神经渲染工作

作者头像
BBuf
发布2022-05-27 08:11:42
8510
发布2022-05-27 08:11:42
举报
文章被收录于专栏:GiantPandaCVGiantPandaCV

【GiantPandaCV导语】GiantPandaCV成员做的一点小工作~目前已经CVPR 2022 Workshop接收,该工作主要的motivation如下:基于物理模型的水下图像生成方法效果并不理想,视觉效果差;在RGB图像的channel和spatial层面同时模拟水下退化不均匀分布特性;高分辨率图像的实时渲染是一个比较challenge的问题。

相关信息

论文题目:CVPRW22《Underwater Light Field Retention : Neural Rendering for Underwater Imaging》

论文链接:https://arxiv.org/abs/2203.11006

代码链接:https://github.com/Ephemeral182/UWNR

1. Introduction

水下图像的渲染(合成)可以应用于各种实际应用,例如水下图像增强、相机滤镜和虚拟游戏,且对目前获取水下数据集的成本相对高昂,特别是水下成对数据集的ground-truth大多数都是由算法生成的,这会造成一定的偏差。因此我们旨在用干净的图像来生成逼真的水下图像,我们探讨了水下图像渲染中两个关注点不高但具有挑战性的问题,即 (1) 如何通过单个神经网络渲染不同的水下场景?(2) 如何从自然样本中自适应地学习水下光场,即真实的水下图像?我们设计了一个基于水下光场保留的水下神经渲染架构(UWNR)来解决以上问题。

文章的主要工作:

  • 我们开发了一种自然光场保留模块,借助我们提出的水下暗通道损失和光场一致性损失,将地面图像的特征尽可能接近水下情况。
  • 据我们所知,这是第一个在没有物理模型和 GAN 方法的情况下渲染水下图像的工作,可以轻松渲染逼真的风格多样的水下图像。
  • 我们进行了广泛的实验来证明我们的方法在客观评价方面实现了最先进的渲染性能。
  • 利用我们方法(UWNR)合成了一个大型的神经渲染水下数据集(LNRUD),其中包含大量由陆地干净图像合成的水下图像。

2. Method

2.1 Overall Architecture

我们的UWNR架构在训练阶段采用Paired的图像进行训练,在渲染(推理)阶段从任意选择一张干净图像和一张水下图像便可以生成逼真的水下图像,总体流程图如下图所示

2.2 Natural Light Field Retention

(a) Clean Image (b)第一行为水下图像,第二行为水下图像对应的光场图,第三行为对应的渲染结果。

2.3 Underwater Image Generation Module

#### Depth Estimation Network

获得了光场信息之后,另一个关键的因素是深度信息。考虑到RGBD获取的难度,我们并不需要配对的RGBD图像,我们运用pre-trained的深度预测模型[^1]进行协同工作,以提高了适用性。

ulti-branch Hybrid Unet (MHB-Unet)

对于网络结构的设计,我们采用ED结构来抽取特征并进行图像的重建,在下采样层后面我们添加了一个多分支混合block,考虑到水下场景的局部特征复杂多样,我们首先通过1×1和3×3卷积得到不同的感受野,进行多重特征融合。同时,我们还使用了残差连接,可以解决梯度消失的问题,并考虑到水下图像中某些区域的空间结构和颜色不受场景退化的影响。在多分支融合之后,我们应用了空间注意模块如图 (b)和通道注意模块如图(c)的组合。空间注意力机制提高了网络对水下图像中光场分布、深度信息等复杂区域的关注能力,通道注意力机制则关注网络对特征中重要通道的表达,从而提高整体模型的表达性能。我们的模型在推理渲染1024 \times 1024的图片时仅需要0.0023s,可以快速生成大量图片。

Blocks

2.4 Training Losses

Underwater Dark Channel Loss

对于水下图像的合成,其要符合水下的统计特性,UDCP[^2]将暗通道先验原理应用于水下。我们定义了一个水下暗通道损失,使生成的水下图像与干净图像在暗通道层面一致:

U D C\left(x\right)=\min _{y \in N(x)}\left[\min _{c \in\{g, b\}} {x_{i}}^{c}(y)\right].

水下暗通道损失表达如下:

\mathcal{L}_{udc}=\left\|UDC\left(\mathcal{I}_{u}\right)-UDC\left(x_{u}\right)\right\|_{1}.

Light Field Consistency Loss

为了有效保持真实水下图像的光场特性,我们引入了基于自然光场图的光场一致性损失,以获得更好的渲染性能。我们利用多尺度高斯滤波器来捕获光场图:

\mathcal{LF}(\mathcal{J})= \frac{1}{3}\sum_{\sigma}^{}Gauss_{\sigma}(\mathcal{J}),\sigma \in \left\{15,60,90 \right\}.

光场一致性损失表示如下:

L_{lfc} = \left\|\mathcal{LF}(\mathcal{I}_{u})-\mathcal{LF}(x_{l}) \right\|_{1}.

除此之外我们使用了感知损失和L1重建损失来进行pixel级别的监督,总的损失表达如下:

\mathcal{L} = \lambda_{rec}\mathcal{L}_{rec}+ \lambda_{per}\mathcal{L}_{per}+ \lambda_{udc}\mathcal{L}_{udc}+ \lambda_{lfc}\mathcal{L}_{lfc}.

3.Experiment

在实验部分我们采用 FID[^3] 评估度量来客观地评估我们生成的图像的效果,然后我们采用 PSNR、SSIM 和 UIQM 度量来衡量我们生成的水下图像数据集与其他水下图像生成方法相比对水下增强网络Shallow uwnet[^4]的效果。

除此之外我们还在论文和补充材料中展示了大量的Vsual Comparison:

在最后我们利用我们的UWNR方法创建了一个大型水下合成数据集包含由5000张真实水下图像合成的5w张合成水下数据集,具体数据集可以在github中找个链接,以下放几张效果图

Authors: Tian Ye†(集美大学 本科三年级), Sixiang Chen†(集美大学 本科三年级), Yun Liu(西南大学), Erkang Chen(集美大学)*, Yi Ye, Yuche Li(中国石油大学)

参考

  • https://arxiv.org/abs/1804.00607v4
  • https://www.cv-foundation.org//openaccess/content_iccv_workshops_2013/W24/papers/Drews_Jr._Transmission_Estimation_in_2013_ICCV_paper.pdf
  • https://arxiv.org/abs/1706.08500
  • https://arxiv.org/abs/2101.02073
本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-04-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 GiantPandaCV 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. Introduction
  • 2. Method
    • 2.1 Overall Architecture
      • 2.2 Natural Light Field Retention
        • 2.3 Underwater Image Generation Module
          • ulti-branch Hybrid Unet (MHB-Unet)
        • 2.4 Training Losses
        • 3.Experiment
        • 参考
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档