首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

换脸、变声、诈骗,我们应该怎样防范“无所不能”的深度造假?

来源/Medium Onezero

作者/Kiesha Frue

编译/王思宇

众所周知,Deepfake是一种利用人工智能和机器学习技术,进行篡改图像、视频或音频的手段。

尽管,这一技术偶尔被用作有趣的恶作剧,但在居心叵测的人手中,Deepfake会导致非常严重的公共或金融危机。

Deepfake是如何创造出来的

Deepfake技术是对抗生成网络(GAN)和无监督机器学习的结果。

在获得初始数据后,计算机使用发生器和鉴别器自学。

特朗普与尼古拉斯凯奇「换脸」

生成器可以创建初始的假图像、音频或视频,并将其发送给鉴别器进行检查。如果确定图像是假的,生成器会根据鉴别器的反馈修改文件,然后使用提供的数据,生成器再次更改文件,并将其发送回鉴别器进行评估。

这种情况将一直循环下去,直到能够欺骗鉴别器,把假文件判断为真的。

然而,这个过程可能会产生一些问题。

如果「鉴别器」的水平较低,它可能会过早地将假图像标记为「真」,从而产生「亚深度」的假图像。而这被称为「肤浅的假货」,经常出现在媒体的头条中。

什么是浅层造假?

总的来说,浅层造假还是不如深度造假,因为它缺乏足够的真实感,凭借肉眼观察,非常容易发现这种低级的造假手段。

一些常见的浅层造假例子有:低劣的照片交换,某个恐怖视频里被低级PS技术「切下」的头颅,或者是一个假装人类的机器人语音。

也许你会说,浅层造假可能比深度造假更容易被发现,但是这不能成为它们造成危害的借口。

Jim Acosta「攻击」实习生视频截图

美国有线电视新闻网记者Jim Acosta是一个浅层造假视频的受害者。在那个假视频里,Jim Acosta在「攻击」一名白宫实习生。而真正的视频是,那个白宫实习生正试图从Acosta那里抢走麦克风。

尽管Acosta的粉丝们仍然支持他,但是不喜欢他的那些人,都更加相信他曾经攻击一个无辜的实习生。

固有偏见如何固化深度造假

虽然我们用眼睛和耳朵很难识别深度造假,但这显然不是它们的最主要的矛盾。

一项涉及3000多名成年人的新研究,揭示了我们如何审视数据这一问题。在给参与者展示了带有假文本的假图像后,它揭示了偏见确实会影响他们对深度造假的看法。

也就是说,如果它强化了我们的心中不正确的观念。并导致我们更有可能传播分享信息,而不管来源的有效性如何。假消息会迅速在人群中传播开来,并对社会舆论产生影响,甚至给公司带来巨大的财务损失。

深度造假带来的危害

网络安全公司Symantec称,3家公司因深度假冒音频诈骗而倒下。

在骗局中,攻击者通过使用深度造假的音频自称是企业的CEO,打电话给高级财务官,要求他们紧急转账。

就这样,数百万美元凭空消失了。

深度造假不仅用于经济利益,还用于报复。一款名为Deepnude的APP,用人工开发的裸体替换女性的衣服。这种未经女性同意而创作和传播这些图像被称为复仇色情,它已经推动了反对数字篡改图像和视频的新立法。

对于普通人来说,仅凭眼睛和耳朵来分辨深度造假是非常困难的。那我们怎么才能找到他们呢?那就是创建一个深度造假所需的相同类型的算法。

怎样识别深度造假

新的算法号称已经可以检测部分深度造假,但不幸的是,这个过程困难和漫长。

当前的有效检测算法,需要逐个像素地检测深度造假图片。为了能够做到这一点,必须研究数以千计的真实和深度伪造图像,以寻找差异。

图中的每个奥巴马都是假的

一个值得注意的部分是,深度造假图像里平滑的边缘。在造假者插入新图像时,电脑会把边缘弄得太光滑而无法补偿。因此,这种不自然的平滑度可以将图像显示为深度赝品。

这样的检测算法可能适用于视频,但还不完全符合目前的的标准。它需要逐帧分析视频,并检查每帧的像素。当计算机花大量时间完成并确定这是一个深度造假的视频时,假视频对个人和社会的伤害也许已经无法挽回了。

最后

技术每天都在进步,深度造假技术也同样如此。坏人们每天都在学习新的方法,来创造高度真实的假货,而我们即便拥有当前最先进的检测算法,也总有一天会过时。

本文作者:

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191118A0FPCH00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券