把一个人的脸安到另一个人身上,黑科技“换脸”视频变得吓人

如果技术继续沿着目前的轨迹发展,就不可能检测到人工智能辅助的deepfake(换脸)视频

AI黑技术帮你换脸

在其发展的这个阶段,一些令人毛骨悚然的东西仍然贯穿于“deepfake”(黑科技,换脸应用)之中,这是一个在人工智能(AI)和深层机器学习的帮助下创建和操作的伪造视频几乎是误导性的标签。

这不仅仅是由这些日益复杂的软件程序制作的怪异的、有点刻薄的、不太正确的视频。这个黑科技换脸术会让人不安,而且这也不仅仅是改变原始照片和视频的伦理道德问题,这无疑是捅了马蜂窝。

最重要的是,我们正迅速接近一个点,在这个点上,我们可能根本无法相信自己的眼睛。那张照片真实地描绘的事是真的吗?这视频是真的吗?那张脸和那身体是同一个人吗?那些话和那张脸相配吗(一个人说话的嘴巴被安到另一个人身上)?那家伙真的能那样跳舞吗?

这是希拉里与川普的“结合体”~(网络图)

“Deepfakes”背后的计算机科学】

早在2017年末,Reddit(红迪网)上的一位叫“Deepfakes”的用户,根据Know Your Meme(了解你的模因),发布了一些交换脸的色·情视频——这听起来既悲伤又蹩脚;把一个公众人物的脸,叠加在另一个人的头上——于是“Deepfake”狂潮开始了。

不久之后,Deepfakes公司推出了一款名为“FakeApp”的应用程序,这款应用让人们跃跃欲试。

从那以后,各种各样的模因和其他节目——有些令人滑稽,有些令人毛骨悚然,有些更糟糕——都被制作出来

看得出异样吗?(网络图)

包括尼古拉斯·凯奇的脸用在艾米·亚当斯的身体上(在超人电影中扮演露易丝·莱恩的女星)和BuzzFeed网站制作的一段很棒的视频中,喜剧演员乔丹·皮尔(Jordan Peele)被制作成了美国前总统巴拉克·奥巴马(Barack Obama),他警告称,在一段略带有NSFW色彩的视频中,这项技术可能有一些更邪恶的用途。

被玩坏的影视明星~(网络图)

用于创建这些视频背后程序的计算机科学可能极其复杂,比用于简单的deepfakes复杂得多。复杂的算法和计算机科学术语,如通用对抗式网络(GAN)和深层神经网络,充斥着更先进的视频编辑技术的学术论文。

一般来说,这些程序所做的就是逐帧检查一个主题的视频,“学习”主题的大小、形状和运动,以便在视频中转移到另一个主题上。

尽管deepfakes主要限于交换受试者的面部表情,但更高级的程序可以转换完整的3D头部位置,包括头部倾斜、眉毛扬起或嘴唇撅起等动作。对整个身体运动做了一些研究。

这些程序检测到的信息越多,这些网络得到的反馈和“学习”的变量就越多,视频的效率、效果和真实性就越高。

【超越Deepfakes】

需要注意的是,并非所有基于人工智能和机器学习的视频和照片编辑技术都是deepfakes。在这一领域工作的学者认为,deepfakes是业余的,只能换脸。

加利福尼亚大学伯克利分校的一个研究小组正在研究一种技术,这种技术可以让一个人的整个身体运动起来——一个专业的舞者——然后通过视频把它与一个业余爱好者的身体交换。有了一点人工智能的魔法,那么,即使是一个有两只左脚的人,至少也能像巴瑞什尼科夫那样跳舞。伯克利小组在报纸上详细介绍了他们的研究,现在大家都会跳舞了。

当然,这项技术并不完美。目前这仍然是个棘手的问题。即使是一张由电脑生成的移动脸也很困难。到目前为止,大多数人工智能生成的面孔,即使是deepfakes——尤其是deepfakes——都是明显的伪造品。有些东西,几乎是一成不变的,似乎有点不对劲。

《现在人人跳舞》一书的作者之一、伯克利计算机科学研究生Tinghui Zhou说:“我认为其中一件事就是脸部的阴影细节,我们(人类)非常擅长辨别一张脸是否真实——阴影细节、皱纹如何移动、眼睛如何移动——所有这些细节都必须准确无误。我认为,如今的机器学习系统仍无法捕捉到所有这些细节。”

另一种新的人工智能视频操作系统——或者用其设计师的话说,是“肖像视频的写实再现”——实际上使用了一个“来源”参与者,可以改变“目标”参与者的面部表情。

例如,作为“来源”的你,以某种方式移动你的嘴巴,电脑会把这个动作绘制成图,输入到学习程序中,程序会把它翻译成‘奥巴马’说出你的话的视频。你大笑,或者扬起眉毛,‘奥巴马’也一样。

2018年8月中旬,在温哥华举行的计算机图形与交互技术会议上,一篇关于这一过程的论文被称为“深度视频肖像”,论文中展示了这一过程,并展示了该项目的地点:好莱坞。

作者写道:“在过去30年里,电脑生成的视频一直是故事片电影的重要组成部分。从《指环王》到《本杰明•巴顿奇事》,几乎每一部高端电影都包含相当大比例的电脑生成图像(CGI)。”

“这些结果很难与现实区分开来,人们往往忽视了这些内容不是真实的……但是这个过程非常耗时,而且需要领域专家。即使是制作一个短的合成视频剪辑,也要花费数百万美元的预算和数月的工作,甚至对于受过专业训练的特效大师来说也是如此,因为他们必须手动创造和动画大量的3D内容。”

多亏了人工智能,我们现在可以在更短的时间内制作出同样的图像,而且更便宜。如果不是现在,很快——同样令人信服。

【在伦理道德的钢丝上行走】

正如喜剧演员皮尔(Peele)等人所警告的那样,操纵现有视频或用虚假图像制作新视频的过程,在坏人手中可能是非常危险的。一些著名的女演员和演艺人员的脸被“偷”了,并被编入了色情视频,这是早期最令人不安的deepfakes实例。正如皮尔在他的“奥巴马”视频中所警告的那样,使用图片来制作“假新闻”是一种非常现实的可能性。

被玩坏的名人~(网络图)

许多应用商店已经采取措施禁止deepfakes。事实上,Reddit(红迪网)已经封了“deepfake”这个用户。Pornhub(爱情动物片分享网站)郑重宣布禁止人工智能产生色·情内容。Tumblr(汤博乐)和Twitter(推特)等网站都禁止deepfakes的色·情作品。

但这些视频可能不太容易监控,尤其是在制作视频的程序不断改进的情况下。斯坦福大学计算机科学教授、深度视频肖像背后的人物之一的Michael Zollh?fer说,学术界的人都知道其中涉及的伦理道德问题。

Michael Zollh?fer在一个新闻发布会上宣布他的项目:

多年来,媒体行业一直在使用照片编辑软件来润色照片,这意味着我们大多数人都学会了对照片中看到的东西半信半疑。随着视频编辑技术的不断进步,我们也必须开始对我们每天观看的视频内容更加挑剔,特别是如果没有证据证明其来源的话。”

inghui Zhou说:“参与这项技术建设的每个人,都需要采取适当的措施来确保它不会被滥用。开发软件来检测计算机增强或修改的视频,并在视频中打上看不见的“水印”,以便在取证评估下显示它们是计算机生成的,这将有所帮助。”

再一次,来自深度视频肖像:

值得注意的是,在我们进行最先进的视频编辑工具时,对其背后的算法和原理进行详细的研究和理解也是开发能够检测其使用的技术的关键。检测视频操作的方法和执行视频编辑的方法都基于非常相似的原理。”

Tinghui Zhou说:“我认为,作为研究人员,我们有责任提高公众对滥用这些技术的认识。但我想强调的是:这项研究有很多积极的用途。我们收到舞者们的请求,希望利用我们的研究来帮助他们跳舞。这项技术有积极的一面。”

【前方有什么】

随着程序变得更加复杂,以及机器更好地学习如何克服这些电脑生成的视频和照片中明显和不明显的错误,这一领域只会得到改善。它能达到什么地步,谁也说不准。这项技术发展如此之快,即使在不久的将来,我们也很难看清它的发展方向。

Tinghui Zhou说:“事情正在迅速进展,看看一两年后会是什么样子,一定很有意思。”

对于这种“换脸”黑科技你怎么看?欢迎留言~~~

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180906A1FJDZ00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券