首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Deepfake换脸技术,细思极恐,网民口诛笔伐,存在太多安全隐患

你有没有想过这样的一个问题,当你看到一个视频的时候突然发现上面的女主角非常像自己的老婆,不仅长像声音也是一模一样,但你老婆并没有和别人合作拍过视频。这时你可能会觉得你老婆骗了你,但不要冲动,因为有一种技术可以做到,Deepfake画面技术。

Deepfake画面技术。

说到Deepfake之前先举个例子, 在2018年的时候加蓬总统Aii Bongo突然消失了几个月,引起了社会上的猜测和不安,很多人认为有人谋害总统试图夺权,为了安抚民心政府公开了一段Aii Bongo录制的新年致辞。这段异常的致辞让军方确信是总统有难还为此发动的兵变。

然而,最后的事实真相是那段视频是Deepfake画面技术合成的,而Aii Bongo的消失是因为严重中风。这就是我们大家现在都有听说过的画面技术Deepfke。

虽然Deepfke出现才几年,但大家在网络上面已经对这种技术口诛笔伐,其中最明显的问题就是很多女性的样貌被套在了很多不雅的视频当中。

以前只能换图片如今视频也可以换

Deepfake是非常先进的,从原理上来讲可以跟视频的主角换成任何人。Deepfake使用的是最知名的深度学习算法之一GANS Generative Adversarial networks。

GANS全称为生成式对抗网络,这个对抗性的算法会让两个神经网络彼此对抗,就像现实中一个假冒者和一个真迹鉴别家之间的对抗一样。

第一个神经网络被称为生成网络就是假冒者,他负责制作尽可能逼真的作品;而第二个网络为鉴别器,就相当于现实生活中的鉴定专家,它将前者生成的作品和原始数据库中大量的真迹进行对比来鉴别,那些是真的那些是假的。基于每一次的对抗结果生成网络也就是假冒专家都会调整他制作时使用的参数直到鉴别器无法辨别他生成的作品和真迹的区别,才算达到了成功。这个时候最终合成的视频基本上是可以以假乱真。

视频基本上是可以以假乱真

本来这个软件在实现过程中是非常艰难的,但是由于现在有了高速计算机这些事情很快就能实现,而且能够达到以假乱真的程度。不止视频甚至声音都可以假冒,这个听起来就有点吓人了。

其实我们都不知道随着这些科技的普及还会带来怎样的问题,就像在网络上面看到的很多新闻图片、视频都有可能是假的。当你接到你老婆的来电,声音也可能是假的。当然还有一个很大的影响也许将来我们的电影当中再也不需要电影明星了,很可能到时候所有的电影演员都会失业,因为一切都可以创作出来的。可以想像一下,当你特别崇拜,特别喜欢一个电影明星的时候,而你却不知道他只是一个被虚构出来的影子而已,在现实生活中根本就没有这个人的存在。

随着技术的不断提升,未来的视频通话你看到的手机那头的人可能也会是假的,这将会给不法分子带来可乘之机。说到这并不是说要贬低Deepfke意思,画面技术就像一把双刃剑,有利也有弊。给我们带来便利的同时也有可能带来危险。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20201126A0BXQ700?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券