如今,能像打游戏一样,控制真人网球运动员的每一个动作,“赢得”比赛:
甚至能一帧帧控制,制作一个0失误的弹球游戏视频:
还可以像夹娃娃机一样,想让视频中的机器人夹爪往哪动,它就往哪动:
制作各种视频,现在就像是打游戏一样简单,效果还非常逼真。
果然,这又是AI的“功劳”。
只需要敲几下键盘,就能控制视频中某个目标的方法,叫做“可玩视频生成器” (playable video generation)。
也就是说,不需要视频剪辑技巧,只需要用几个键来指示动作标签,用户就能像“打游戏”一样,控制目标的每一帧动作,制作出视频来,效果丝滑流畅。
不过,与游戏不同的是,这种方法甚至可以通过AI预测动作,来控制真实视频中的目标。
这是怎么做到的?
作者们利用自监督的方法,让模型学习了大量无标签视频。
也就是说,给出一组无标签视频,让模型学习出一组离散的动作,和一个能通过这些动作、生成视频的模型。
为此,作者设计了一种encoder-decoder结构CADDY,其中预测的动作标签则起到瓶颈层(bottleneck)的作用。
这些可播放视频生成结构,由若干组件组成,其中编码器E,从输入视频序列中,提取帧特征。
而时序模型,则采用递归神经网络R、和用来预测输入动作标签的网络A,用于估计目标连续的动作状态。
最后,用解码器D,来重构输入帧,就能生成可控制的视频模型了。
当然,想要让模型达到开头那样的效果,还需要对应的视频数据集。
作者们用了3个数据集来训练,分别是RoboNet、Atari Breakout和Tennis。
RoboNet数据集,是伯克利人工智能研究所(BAIR)做的一个机械臂数据集,共有1500万个视频帧。
这个数据集,包含各种机器人的摄像记录、机械臂姿势、力传感器读数和夹爪状态。
而Atari Breakout,则是一个弹球游戏,这是一个非常简单的2D像素游戏,玩家通过控制平板左右移动,让弹球准确地弹掉天花板上的砖块,以此得分。
这一游戏,已经专门为AI设立了一个排行榜,目前得分最高的仍然是谷歌DeepMind的MuZero。
而能控制模型一帧帧生成游戏视频的CADDY模型,也是通过这个游戏训练出来的。
也就是说,只要玩得够慢,绝对能“0失误”做出“完美弹球游戏视频”来。(细思极恐)
至于网球数据集,作者们是在油管下载的(还需要安装youtube-dl),通过油管上的网球视频,做出真人可控的录像来。
说不定,将来还能操作自己喜欢的网球巨星,来与好友进行一场世界级的“实战”博弈。
此外,既可以通过项目地址来下载上述的三个模型,也可以自己准备想用的视频数据集(要求MP4格式),来训练出目标可控的视频。
具体到模型运行上,作者们推荐用Linux系统来运行模型,训练的话,最好自带1个或以上兼容CUDA的GPU。
此外,模型提供Conda环境和Dockerfile,用于配置所需要的库。
准备好后,就能进行模型训练和评估了。
目前,这一模型的“弹球游戏”版在线Demo已出,玩家可以通过控制左、右、或保持,这三种动作,来让弹球准确地击打到平板上。
如果你是手残党,用这个demo制作出来的视频,绝对能让你体会到游戏0失误的快乐。
文末附demo链接,赶紧上手试试吧~
这个“可玩视频生成器”的一作Willi Menapace,是来自特伦托大学的博士生,主修深度学习和计算机视觉应用,尤其对图像和视频生成方向的研究特别感兴趣。
二作Stephane Lathuili´ere,是巴黎理工学院的助理教授,主要的研究方向是强化学习、和深度学习中的回归问题,包括图像和视频生成。
共同二作Sergey Tulyakov,来自Snap的首席科学家,主要研究方向包括机器学习中的风格转换、逼真对象操作和动画、视频合成、预测和重新定位等。
Aliaksandr Siarohin和Elisa Ricci,分别是来自特伦托大学的博士生和助理教授,主要研究方向包括计算机视觉、机器人和机器学习等。
项目地址: https://willi-menapace.github.io/playable-video-generation-website/
在线demo: https://willi-menapace.github.io/playable-video-generation-website/play.html
— 完 —
本文系网易新闻•网易号特色内容激励计划签约账号【量子位】原创内容,未经账号授权,禁止随意转载。