前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >生成逼真3D人偶,居然不用3D形状建模,还能学会你的舞步 | 三星CVPR Oral

生成逼真3D人偶,居然不用3D形状建模,还能学会你的舞步 | 三星CVPR Oral

作者头像
量子位
发布2019-06-19 11:33:45
6160
发布2019-06-19 11:33:45
举报
文章被收录于专栏:量子位量子位
3D栗子 发自 凹非寺 量子位 出品 | 公众号 QbitAI

当你站在空旷的屋子里,眼神坚定地望向远方。

有只AI已经获得了你的影像,并合成了一座3D全身像

后来,你开始解放天性,自在舞动,却惊讶地发现:

那个虚拟的自己,也在用同样的姿势起舞,并且几乎和你同步

一切仿佛与生俱来,像是你的灵魂注入了它的身体。

这是一项中选了CVPR 2019 Oral的研究,但不止是因为效果逼真:

更重要的是,它没有用到3D形状建模 (Explicit 3D Shape Modeling) ,而是依靠2D纹理映射 (2D Texture Map) ,来完成渲染的。

而在这样的情况下,渲染依然逼真。就算是渲染没见过的新姿势,也不在话下。

到底是怎么做到的?

优秀的脑回路

论文写到,这是介于经典图形学方法深度学习方法之间的一条路。

其中,图形学的思路就是,把几何 (Geometry) 跟纹理 (Texture) 分开处理。

几何是3D的,好比白色的人体雕塑,纹理是2D的,好比外面的皮肤。

而神经网络的任务,只限于预测从纹理到输出图之间,需要怎样的图像形变/扭曲 (Warping) 。换句话说,把2D“皮肤”贴到3D人类的身上。

具体来讲,那是一个全卷积网络,角色是生成器 (上图黄色部分) 。它要根据输入的人类姿态,以及摄像头参数,为人体的各个特征点,生成2D纹理坐标。

用这些纹理坐标,可以预测出2D的RGB图像

反正,最终显现的效果,也是一帧接一帧的2D图。每一帧的角度有所不同,看去便是3D人像了:

就这样,完美避开了3D形状建模。

而训练过程中,网络会把每一次预测出的2D图,和Ground Truth做对比,再把损失 (Losses) 反向传播回到生成器里,增强预测能力。模型是用多视角视频数据来训练的。

训练完成后,就算你摆出AI没见过的新姿势,它也能做出成功的渲染。

团队说那是因为,保留显式的纹理表征 (Explicit Texture Representation) ,有助于提升泛化能力

当然,没做3D形状建模,也不代表全程都在2D中度过。

别忘了,和2D纹理搭配食用的,是3D人体几何。也就是说,人类的姿态估计,是3D姿态估计

这一部分,团队从大前辈DensePose那里,借用了精髓:把摄像头拍下的2D图中,人类的每个像素点,都映射到3D人体表面的特定位置上。

于是就有了3D姿态。还记得么,上面的2D纹理预测网络,输入就是姿态。

不用3D形状建模的3D人像合成方法,达成。

引用一句俗语:意料之外,情理之中。

来自俄罗斯

这个思路清新流畅的研究,来自莫斯科的三星AI中心,以及斯科尔科沃科技研究院。团队成员有12人之多。

如果你想要更深刻地感受这个模型的魅力,请从传送门前往观赏。

论文传送门: https://arxiv.org/abs/1905.08776

主页传送门: https://saic-violet.github.io/texturedavatar/

前辈DensePose传送门: http://densepose.org/

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-06-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 优秀的脑回路
  • 来自俄罗斯
相关产品与服务
图像处理
图像处理基于腾讯云深度学习等人工智能技术,提供综合性的图像优化处理服务,包括图像质量评估、图像清晰度增强、图像智能裁剪等。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档