首页
学习
活动
专区
工具
TVP
发布

制作以假乱真的伪造视频,只需一张照片

本文翻译自2019年5月24日发表于CNN的“Researchers can now use AI and a photo to make fake videos of anyone”一文,有删改。文中所有观点仅代表作者个人意见。

研究人员已经发明出了一种方法,通过受训练的人工智能系统,用任何人的一张照片就可以为其制作出逼真的假视频。这是2020年美国总统大选前的一种隐患,因为届时网上很可能会传播各候选人的伪造视频。

莫斯科三星人工智能中心(Samsung AI Center)和斯科尔科沃科学技术研究院(Skolkovo Institute of Science and Technology)的研究人员在本周向arXiv发表的一篇论文中详细阐述了这一成就,arXiv是一个发表论文预印本的在线学术平台。

研究人员表示,他们可以先在一个包含许多名人数据的视频数据集的基础上训练出一个人工智能系统,让它把人们的一张或几张照片做成动画,以便它了解人脸的关键要点。在那之后,人工智能系统就可以凭借它对某人的一张或几张照片的熟悉程度,为其制作出一个十分逼真的能说话的头部形象的视频。

上个月,研究人员在YouTube上发布了一段视频,展示了许多例子来说明人工智能的伪造有多么逼真,以及还有哪些进步空间。其中,由图像制作出的物理学家阿尔伯特·爱因斯坦、女演员玛丽莲·梦露和超现实主义画家萨尔瓦多·达利的动画尤其令人印象深刻。

但每个动画中的人物都有一些瑕疵:爱因斯坦蓬松的头发没有完全随着他的头部移动,达利火柴棍般纤细的胡须被剪短,梦露著名的痣也没有出现在她的脸上。

这一技术与深度伪造(deepfakes)非常相似——深度伪造是“深度学习”(deep learning)和“伪造”(fake)这两个词的组合。它指的是利用尖端且相对容易获得的人工智能技术制作出逼真的假视频和音频。

这项研究使用了与深度伪造相同的人工智能技术,这是一种被称为GANs的机器学习方法,也就是生成式对抗网络。

但它与深度伪造并不一样。因为深度伪造只是通过一段目标人物的视频,以及一段其他人进行伪造者希望目标人物作出的行为的视频来生成伪造视频。比如前文图片展示出的视频中,喜剧演员乔丹·皮尔(Jordan Peele)讲话的方式被放在了前美国总统贝拉克·奥巴马的身上。

包括政治领导人和美国情报机构在内的所有人都担心伪造视频的传播可能被用来误导选民。这些视频不需要应用最新的技术进行修改就能生效:上个月,众议院议长南希·佩洛西(Nancy Pelosi)的一段被处理过的视频在网上疯传,处理者仅仅是放慢了她说话的速度,为了让人觉得她在与特朗普会面后说话含糊不清。

研究人员的项目目前仍处于早期阶段:人工智能系统仅被训练来创造一个人头部、颈部和部分肩膀的形象。不过,由一名女性的一张照片制作出的视频剪辑看起来似乎还可识别(尽管分辨率有点低),但由她的8张和32张图片制作出的其他剪辑则看起来越来越真实。

研究深度伪造的纽约州立大学奥尔巴尼分校计算机视觉和机器学习实验室主任Siwei Lyu在接受CNN采访时表示,相比现在,这项研究可以使深度伪造变得更容易,用比以前更少的数据就可以进行深度伪造。

如今,如果你想要制作深度伪造视频的话,掌握一段你的目标对象、以及你想要他做出的动作的超过30秒的视频变得格外重要。

“缺点是,如果没有足够的数据,合成视频的质量是有限的。”他表示。

也就是说,他也注意到梦露的脸上还少了颗痣。

【作者】Rachel Metz

【作者简介】CNN商业频道记者

图片来源:CNN

编辑/程旭

翻译/季天誉

排版/易扬钧

校对/董一

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190623A075YK00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券