首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

可怕的AI系统,AI 换脸脱衣大揭秘!

有的时候不得不感慨,这科技真的是每天都影响着我们的生活,但是最近在人工智能领域有几件事儿让我们觉得有点毛骨悚然!

比如说,前段时间在网上流传的 94 版的射雕英雄传,很惊悚的地方就是演黄蓉的朱茵变成了杨幂,而且还惟妙惟肖的,这个视频一流出来直接瞬间就上了微博热搜,不夸张地说是真的欺骗了很多很多的网友。

如果你经常逛 B 站的话,只要你搜索关键词“Deepfake”,就会有大量的类似的换脸的视频出现。然而人工智能除了可以换脸,甚至有的更夸张直接就把衣服给你给扒了,那么在这个 Deepfake之后,又火了一项新的人工智能的应用叫做DeepNude,它得到了一张你穿着衣服的正常的照片,那么几分钟的时间里边就可以做出一张全裸的假照片,而且看起来非常的真实!

所以网上有一种观点就是,PS 让大家失去了对于图片的信任,人工智能的出现之后可能连视频都不敢相信。尤其是在今天的社会,很多时候其实都是依靠着监控和视频取证来去维系社会安定,可能如果人工智能这样的应用了之后,以后连这些视频监控都没有意义了。

换句话来讲,大家甚至会在视频里面看到,可能突然一天自己说了一些从来没有说过的话,做了一些你从来都没有做过的事情也保不齐。

很显然,今天大家对于 AI 已经不是那么喜闻乐见了,甚至会有一些恐慌和焦虑,那么这种恐慌究竟来自于哪里,其实人工智能骗你或者说计算机骗你,这已经不是一天两天的事儿了,尤其是在图像领域已经骗了我们很久了。

举个简单的例子,我们身边肯定有很多人,尤其是女生在自拍的时候都是特别讨厌 iPhone 的原生相机,为什么呢,当然是因为它太真实了,不像其它的这些品牌自带美颜。

我们之所以探讨 AI,是因为它其实突破了我们对于伦理的一般的认知,所以说我们现在再去评价计算机骗你这件事到底对不对?其实已经意义不大,因为本质上我们在意的是计算机伦理的底线到底在哪里,那么它其实是一个程度问题。

我们再给大家举个例子,我们经常做一个简单的思想实验,假如说我们用手机给自己拍张照片,很正常的照片,你穿着衣服的。

手机作为一种计算机的设备,它的伦理底线其实很高,它可能会对照片做一些基础的修改,比如我们熟悉的HDR白平衡,因为它已经突破了忠实还原的这样一个大的逻辑。

但是它有一天突然对你的身体动刀子了,你比如说瘦脸美颜,那可能底线又再突破了一点点。如果说给你换个头,这件事情可就不是一点点的下降了,可能是直接下到最下边,那照片里根本不是你了。

我们丢失的不再是你所谓的客观和自然的生理条件,而是直接把你作为最基本的权利,一个身份ID给你彻底的换掉,如果再低一点的话,不光是换掉你的 ID,可能是在你 ID 基础之上直接就突破你的尊严,照片的性质就已经彻底改变了。

AI 技术在不同的层次的应用,对于底线或者道德的侵犯其实是不一样的,尤其是我们刚才提到 Deepfake 和 DeepNude,是不是说这个技术就不应该让它出现呢?其实我们应该换个问题,就是这项技术本身到底有没有原罪?这个话题其实是有点沉重。

因为AI技术说到底它其实是一种工具,我们用工具来解决一些传统计算机逻辑解决不了的问题,那么这个是人类和动物最本质的区别,因为那就是人类更加善用工具,那么去解决我们生活当中的很多问题。

即便大家都说工具无罪,或者是说技术本身是无罪的,但是技术的应用一旦触犯到了人类自身的生存利益,或者是其它的方面的利益的话,就必须要有一个人去承担这样的责任和后果。

因为取火无罪,但是纵火就有罪了,那么刀具无罪,但是用刀杀人那就是有罪的,所以说技术无罪但是人都是有罪的。都说技术无罪,换头换衣服这种下三滥的应用之外,还能不能帮我们解决一些实际的场景的问题,当然可以,其实无论是这个 Deepfake 还是 DeepNude,它之所以这么强大并不是因为这开发者厉害,而是因为它利用了一种核心的技术叫做 GANs,Generative Adversarial Nets,生成对抗网络。

大家回忆一下,我们之前 SPY 的节目里边有两期讲了 Google Pixel 的相机,其中 Google 有一个算法,就是它当环境特别暗的时候,相机采集不到足够的色彩信息的时候,它就没有办法判断白平衡。

那么这个时候谷歌怎么办?它用了一套神经网络的算法,根据全球谷歌相册里面上亿张照片的经验和积累,来算一个白平衡出来然后给它贴上去。我们通过测评你可以看到,其实效果是非常出色的。

但是很多时候它算的并不那么准了,因为有时候我们拍的照片,你发现他旁边把霓虹灯那些影射或者是色彩信息全都给干掉了,所以有经验的摄影师一看,这就是一个什么呢,一个过分修出来的照片,它其实是不自然对吧?

换句话说,它就是用算法算出的一张假照片。那么我们为了解决这个问题不要太假,还是要用算法真实的还原怎么办呢?

换句话说,它就是用算法算出的一张假照片。那么我们为了解决这个问题不要太假,还是要用算法真实的还原怎么办呢?14 年的时候,蒙特利尔大学有一个人工智能领域的学者,他提出了一个非常好的思路,他说你现在这算法里边有一套网络,对吧?

你生成的这个图像的网络,在处理照片的时候就不得不想方设法的去骗过评价网络这个眼睛,尽可能让这个照片变得更加的真实,那么反过来,评价网络去判断每张照片真假的过程当中,也会检测更多的细节来提升自己的业务能力,所以它有点像矛盾的关系。

毛更尖盾也更加的硬,所以这个时候两套网络它的竞争和对抗可以让最终的结果变得更好,那么双方的能力也都会变得更强。那么我们人类是如何从中得利的呢,那么当这种两种网络去互搏达到一定程度的时候,它利用有限的信息,计算出来的这张假图片变得越来越真实,这就等于我只给你 30% 的信息含量,但是我要得到 100% 的全貌这样一个结果。

那么它可以有很多很多的应用,那么今天这个 GANs 发展到了什么程度呢?

比如说我口述一段电影的情节,而这个 GANs 就可以通过你刚才的口述这部分,直接把电影的视频片段给算出来,是很夸张了吧,而且几乎可以讲是原片一毛一样的状态。

所以当我们今天拥有了这些天才的思路和工具的时候,我们第一个把它拿来干嘛呢?我们先用在医学影像领域里,用它来治病救人。大家想一想如果今天我拍照拍不清楚,你少不了一块肉,但如果医院要来看病的时候,人们在做 CT 核磁共振 X 光的时候,我拍不清楚,那可能对于诊断就变成了很大的一个障碍,尤其是肿瘤的患者,对不对?

所以这个时候 GANs 就是一个非常有潜力的工具,你只要给它一张模糊的照片,它就可以帮我们算出一张清晰的照片来,来帮我们精准的定位病灶的位置,可以说它是一个造福全人类的应用技术,这就是我们所说的应用技术本身无罪,但是要看用在哪里。

我们仔细想一想,Deepfake 的开发者要想做成换脸的工具,他一定得有大量的有人物的这种视频去训练这套算法。那么 DeepNude 的开发者如果想做一键脱衣服,他得有上亿张裸照去训练他的GANs,而且这两个产品的功能做的如此之明确,交互做得非常简单易用,可以用互联网话说叫做用户门槛极低。

人人都可以上手制作,你不懂 AI 都可以用的情况下,那么这个行为就很难让我们相信,这个所谓的创作者或者开发者,他自己的思想上没有原罪,有点诛心的意思,但实际上其实是合理的。

当AI没有突破底线的时候,是开发者先用突破底线的方式去训练了 AI,然后才得到了一个突破底线的结果,所以才会引发最后这些结果带来的恐慌和焦虑。不过好的情况就是它现在还没有特别糟糕对不对?

直到今天为止,计算机或者 AI 的伦理道德底线依然还是把控在人类自己手中,尤其是在AI这样的一个领域,法制建设监管体系还没有完全建立起来的时候,作为技术思路的这种奠定者或者应用的开发者或者行业的观察者以及产品的用户,我们都必须要考虑一定程度上去承担起我们在应用开发的时候,所要去带来的社会影响以及社会责任感。

AI 换脸和 AI 脱衣服这件事,当前法律上可能很难找到对它们的对与错的一个定义,从PS美颜到一键换脸甚至一键脱衣,人工智能的伦理道德底线到底在哪,你是如何看待 AI 换脸和脱衣功能的,它是否应该被禁止?

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190912A0RQFC00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券