前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >根据 2D 图片构建 3D

根据 2D 图片构建 3D

作者头像
老齐
发布2021-10-11 11:18:13
1.4K0
发布2021-10-11 11:18:13
举报
文章被收录于专栏:老齐教室老齐教室

近年来,深度学习(Deep Learning,DL)在解决图像分类、目标检测、语义分割等 2D 图像任务方面表现出了卓越的能力。在 3D 图形问题方面,DL 的应用也取得了巨大的进展。在这篇文章中,我们将探讨一个最新尝试:将 DL 应用于单个图像的 3D 建模上,这是 3D 计算机图形学领域最重要和最严峻的挑战之一。

任务

一张图片,就是 3D 物体的 2D 平面投影,所以,从高维空间向低维空间转换过程中,必然会丢失一些数据。因此,从单一视图的 2D 图像中,永远不会有足够的数据来构建其 3D 模型。

所以,要实现从 2D 图像到 3D 模型的创建,必须对原来的 3D 物体本身有先验知识

在 2D 深度学习中,卷积自动编码器是学习输入图像的压缩表”的非常有效的方法。将此架构扩展为学习紧凑的形状知识是将深度学习应用于 3D 数据的最有前途的方法。

3D数据表达

2D 图像在计算机中只有一种通用格式(像素),与之不同的是:3D 数据可以用许多不同的数字格式来表示。这些表示方法各有优缺点,因此数据呈现方式的选择直接影响到可使用的方法。

栅格化形式(体积网格,Voxel):可以直接应用 CNN

立体像素的英文 voxel 是 volumetric pixel 的缩写,是空间网格像素到体积网格立体像素的直接扩展。每个立体像素的局部性共同定义了该体积数据的独特结构,因此卷积神经网络(CNN)的局部性假设在体积格式中仍然成立。

然而,这种表示是稀疏和浪费的。随着分辨率的增加,有用的立体像素的密度会降低。

  • **优点:**可以直接将 2D 表达中的 CNN 应用到 3D 表达。
  • 缺点:表达方式浪费,必须要权衡计算资源。

几何形式:不能直接应用 CNN

多边形网格:是顶点、边和面的集合,可用于定义三维表面。它可以相当紧凑颗粒形式表达中细节。

点云:3D 坐标(x、y、z)中的点的集合,这些点共同形成一个类似于 3D 对象形状的云。点的集合越大,得到的细节就越多。不同顺序的相同点集仍然表示相同的 3D 对象。

  • **优点:**紧凑的表现形式,关注 3D 对象的表面细节。
  • **缺点:**无法直接应用 CNN。
代码语言:javascript
复制
# point_cloud1 and point_cloud2 represent the same 3D structure
# even though they are represented differently in memory
point_cloud1 = [(x1, y1, z1), (x2, y2, z2),..., (xn, yn, zn)]
point_cloud2 = [(x2, y2, z2), (x1, y1, z1),..., (xn, yn, zn)]

方法

以下方法参考论文:Learning Efficient Point Cloud Generation for Dense 3D Object Reconstruction,论文网址:https://arxiv.org/abs/1706.07036

下面的方法结合了点云的优点,但使用传统的 2D 卷积神经网络来学习先验的形状知识。

2D 结构生成器

建立一个标准的 2D CNN 结构生成器,用于学习对象的先验形状知识。“立体像素方法”是不可取的,因为它效率低下,而且不可能用 CNN 直接学习点云。因此,我们将学习从单个图像到一个点云的 2D 投影的映射,并定义为:2D projection == 3D coordinates (x,y,z) + binary mask (m)

  • 输入:单个 RGB 图像
  • 输出:预测视点处的 2D 投影。
代码语言:javascript
复制
#--------- Pytorch pseudo-code for Structure Generator ---------#
class Structure_Generator(nn.Module):
    # contains two module in sequence, an encoder and a decoder
    def __init__(self):
        self.encoder = Encoder()
        self.decoder = Decoder()    def forward(self, RGB_image):
        # Encoder takes in one RGB image and 
        # output an encoded deep shape-embedding
        shape_embedding = self.encoder(RGB_image)
        
        # Decoder takes the encoded values and output  
        # multiples 2D projection (XYZ + mask)
        XYZ, maskLogit = self.decoder(shape_embedding)
 
       return XYZ, maskLogit

点云融合

将预测的 2D 投影融合到 3D 点云数据中。这是可以实现的,因为这些预测的视点是固定的,并且是事先知道的。

  • 输入:预测视点处的 2D 投影
  • 输出:点云

伪渲染器

可以推断,应该有必要将预测的 2D 投影融合的点云中。那么,如果我们从新视点渲染不同的 2D 投影,它也应该类似于真实 3D 模型的投影。

  • 输入:点云
  • 输出:在视点处的有深度的图像

动态训练

3d3.

将上述三部分结合在一起,我们获得了一个端到端的模型,此模型可以用 2D 卷积结构生成器,将单个 2D 图像生成紧凑的点云。

该模型的巧妙之处在于使 “融合+伪渲染”模块变成完全可微,其几何解释:

  • 几何代数(详细参考:https://en.wikipedia.org/wiki/Geometric_algebra)意味着没有可学习的参数,使模型尺寸更小,更易于训练。
  • 微分意味着可以计算反向传播的梯度,从而可以使用 2D 投影的损失来学习生成 3D 点云。
代码语言:javascript
复制
# --------- Pytorch pseudo-code for training loop ----------## Create 2D Conv Structure generator
model = Structure_Generator()
# only need to learn the 2D structure optimizer
optimizer = optim.SGD(model.parameters())# 2D projections from predetermined viewpoints
XYZ, maskLogit = model(RGB_images)# fused point cloud
#fuseTrans is predetermined viewpoints info
XYZid, ML = fuse3D(XYZ, maskLogit, fuseTrans)# Render new depth images at novel viewpoints
# renderTrans is novel viewpoints info
newDepth, newMaskLogit, collision = render2D(XYZid, ML, renderTrans)# Compute loss between novel view and ground truth
loss_depth = L1Loss()(newDepth, GTDepth)
loss_mask = BCEWithLogitLoss()(newMaskLogit, GTMask)
loss_total = loss_depth + loss_mask# Back-propagation to update Structure Generator
loss_total.backward()
optimizer.step()

结果

  • 基于真实 3D 模型的深度图像与基于学习点云模型的渲染深度图像的比较。
  • 最终结果:来自单个 RBG 图像→ 3D点云

本文的源码、论文和项目地址:

  • Pytorch 源码:https://github.com/lkhphuc/pytorch-3d-point-cloud-generation
  • Tensorflow 源码:https://github.com/chenhsuanlin/3D-point-cloud-generation
  • 论文:https://arxiv.org/abs/1706.07036
  • 项目地址:https://chenhsuanlin.bitbucket.io/3D-point-cloud-generation/

参考文献

https://medium.com/vitalify-asia/create-3d-model-from-a-single-2d-image-in-pytorch-917aca00bb07

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-10-08,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 老齐教室 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 任务
  • 3D数据表达
    • 栅格化形式(体积网格,Voxel):可以直接应用 CNN
      • 几何形式:不能直接应用 CNN
      • 方法
        • 2D 结构生成器
          • 点云融合
            • 伪渲染器
              • 动态训练
              • 结果
              • 参考文献
              相关产品与服务
              图像处理
              图像处理基于腾讯云深度学习等人工智能技术,提供综合性的图像优化处理服务,包括图像质量评估、图像清晰度增强、图像智能裁剪等。
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档