来源/Medium Onezero
作者/Kiesha Frue
编译/王思宇
众所周知,Deepfake是一种利用人工智能和机器学习技术,进行篡改图像、视频或音频的手段。
尽管,这一技术偶尔被用作有趣的恶作剧,但在居心叵测的人手中,Deepfake会导致非常严重的公共或金融危机。
一
Deepfake是如何创造出来的
Deepfake技术是对抗生成网络(GAN)和无监督机器学习的结果。
在获得初始数据后,计算机使用发生器和鉴别器自学。
特朗普与尼古拉斯凯奇「换脸」
生成器可以创建初始的假图像、音频或视频,并将其发送给鉴别器进行检查。如果确定图像是假的,生成器会根据鉴别器的反馈修改文件,然后使用提供的数据,生成器再次更改文件,并将其发送回鉴别器进行评估。
这种情况将一直循环下去,直到能够欺骗鉴别器,把假文件判断为真的。
然而,这个过程可能会产生一些问题。
如果「鉴别器」的水平较低,它可能会过早地将假图像标记为「真」,从而产生「亚深度」的假图像。而这被称为「肤浅的假货」,经常出现在媒体的头条中。
二
什么是浅层造假?
总的来说,浅层造假还是不如深度造假,因为它缺乏足够的真实感,凭借肉眼观察,非常容易发现这种低级的造假手段。
一些常见的浅层造假例子有:低劣的照片交换,某个恐怖视频里被低级PS技术「切下」的头颅,或者是一个假装人类的机器人语音。
也许你会说,浅层造假可能比深度造假更容易被发现,但是这不能成为它们造成危害的借口。
Jim Acosta「攻击」实习生视频截图
美国有线电视新闻网记者Jim Acosta是一个浅层造假视频的受害者。在那个假视频里,Jim Acosta在「攻击」一名白宫实习生。而真正的视频是,那个白宫实习生正试图从Acosta那里抢走麦克风。
尽管Acosta的粉丝们仍然支持他,但是不喜欢他的那些人,都更加相信他曾经攻击一个无辜的实习生。
三
固有偏见如何固化深度造假
虽然我们用眼睛和耳朵很难识别深度造假,但这显然不是它们的最主要的矛盾。
一项涉及3000多名成年人的新研究,揭示了我们如何审视数据这一问题。在给参与者展示了带有假文本的假图像后,它揭示了偏见确实会影响他们对深度造假的看法。
也就是说,如果它强化了我们的心中不正确的观念。并导致我们更有可能传播分享信息,而不管来源的有效性如何。假消息会迅速在人群中传播开来,并对社会舆论产生影响,甚至给公司带来巨大的财务损失。
四
深度造假带来的危害
网络安全公司Symantec称,3家公司因深度假冒音频诈骗而倒下。
在骗局中,攻击者通过使用深度造假的音频自称是企业的CEO,打电话给高级财务官,要求他们紧急转账。
就这样,数百万美元凭空消失了。
深度造假不仅用于经济利益,还用于报复。一款名为Deepnude的APP,用人工开发的裸体替换女性的衣服。这种未经女性同意而创作和传播这些图像被称为复仇色情,它已经推动了反对数字篡改图像和视频的新立法。
对于普通人来说,仅凭眼睛和耳朵来分辨深度造假是非常困难的。那我们怎么才能找到他们呢?那就是创建一个深度造假所需的相同类型的算法。
五
怎样识别深度造假
新的算法号称已经可以检测部分深度造假,但不幸的是,这个过程困难和漫长。
当前的有效检测算法,需要逐个像素地检测深度造假图片。为了能够做到这一点,必须研究数以千计的真实和深度伪造图像,以寻找差异。
图中的每个奥巴马都是假的
一个值得注意的部分是,深度造假图像里平滑的边缘。在造假者插入新图像时,电脑会把边缘弄得太光滑而无法补偿。因此,这种不自然的平滑度可以将图像显示为深度赝品。
这样的检测算法可能适用于视频,但还不完全符合目前的的标准。它需要逐帧分析视频,并检查每帧的像素。当计算机花大量时间完成并确定这是一个深度造假的视频时,假视频对个人和社会的伤害也许已经无法挽回了。
五
最后
技术每天都在进步,深度造假技术也同样如此。坏人们每天都在学习新的方法,来创造高度真实的假货,而我们即便拥有当前最先进的检测算法,也总有一天会过时。
本文作者:
完
领取专属 10元无门槛券
私享最新 技术干货