前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >VR电影首次实现风格迁移,这要归功于AI

VR电影首次实现风格迁移,这要归功于AI

作者头像
量子位
发布2018-03-28 16:21:08
9060
发布2018-03-28 16:21:08
举报
文章被收录于专栏:量子位量子位
李林 编译整理 量子位 报道 | 公众号 QbitAI

制作一部VR沉浸式电影时,AI能发挥怎样的作用?

Facebook做出了一些尝试,把基于对抗生成网络(GAN)、风格迁移等方法的图像生成和处理技术用到了电影后期中。

而且是部VR电影。

Facebook巴黎AI研究院最近和电影制作公司OKIO工作室、Saint George VFX工作室,以及导演Jérôme Blanquet合作,完成了一部新VR影片:《Alteration》。

AI研究员们和电影制作团队合作,首先要解决一个最基本的问题:清晰地给电影制作团队展示AI都能做什么。这样,电影制作团队才能决定如何在影片中使用AI、用在哪里。

他们尝试了基于GAN的自动编码器和风格迁移两种特效方法,然后选定了风格迁移。

Facebook研究团队在昨天发布的博客文章中说,GAN自动编码器了虽然在科研环境中表现良好,但是生成的特效没有达到电影制作团队的预期。

如果你对“风格迁移”这个词感到陌生,看了下面这张图,一定就明白了:

风格迁移这两年来非常火热,研究界不停生产着让风格迁移更真实、更具创造性的论文和代码,各种用风格迁移来处理图片和视频的App中也层出不穷。

把风格迁移用到VR电影中,面临着两大挑战:

一是从技术上看,VR电影是高分辨率的360度立体图像,这样的图像为风格迁移带来了存储和处理时间的限制,而且风格迁移在3D图像上效果如何,也是个未知数;

二是技术团队优化算法的依据不再是某种可量化的指标,而是导演的审美情趣。

Facebook巴黎AI研究院的技术团队从三个方面解决来应对这种挑战。

首先,他们选择了17种由Julien Drevelle作品衍生出来的目标风格,要训练一个神经网络,用来对电影中的帧进行修改。

最初,他们训练迁移神经网络所用的图像,分辨率只有128×128像素,但是当把这个神经网络应用到VR影片上,发现所处理的图像尺寸非常大。因此,Facebook团队后来用768×768的图像重新训练了这个神经网络。

训练完成后,他们通过将每个目标样式应用于单个帧来生成高分辨率测试图像,然后调整样式效果的强度以创建25个不同的高分辨率输出帧。这个过程对于导演选择何种风格非常有效,同时FAIR也能从视频专业角度来确定一个良好的风格迁移。

以下是一些示例,可以看到风格迁移带来的效果。

最后,必须将模型应用于某一场景的视频帧。在每个GPU上,这些模型大约需要100GB容量的显存,所以他们改用CPU。总共使用了550个CPU时来编码完成所有的帧。当然,还得确保双眼看到的立体效果是一致的。

在这部电影中,首次实现了对VR的风格迁移,这表明AI现在已经足够成熟,可以用来作为电影人的创作工具。

影片昨天已经在Oculus的商店上架,Oculus Rift和三星GearVR都可以看:

https://www.oculus.com/experiences/rift/1514447601900695/

如果没有VR设备,上面链接中还有正常版片花可看。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-07-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 李林 编译整理 量子位 报道 | 公众号 QbitAI
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档