莫说无图无真相,视频都不能为证了

各位大朋友和小朋友,欢迎收听玉米熊放学小报,今天是2018年6月18日星期一,这里是玉米实验室。

莫说无图无真相,视频都不能为证了

大家好,我是喜欢吐槽的于川。前段时间,一段奥巴马吐槽特朗普的视频在网上火了,视频里奥巴马甚至对着镜头直白地说特朗普是个彻头彻尾的白痴。看过的小伙伴们是不是都和我一样在心里闪过了无数惊叹号:天呐,奥巴马怎么了?其实,奥巴马没怎么,而是这段看上去清清楚楚、明明白白的视频是假的!无图无真相,在我们的意识里,有了图片,真实度就有了一定的保障,要是还能有视频,那就几乎可以和事实划等号了。但是,随着科技的发展,视频也不能再简简单单地代表真相了。

修改视频并不是什么太新奇的技术,只不过以前要制作特别逼真的假视频那是需要烧钱的,只有不差钱的电影公司和科研机构才有这个能力。而现在,“造假”技术正在变得越来越真实,还越来越便宜、越来越方便,门槛已经低到了专业人士使用免费程序自己在家里就能完成。

技术发展是好事,比如,以后再制作纪录片、拍电影,也许就能方便地真实还原历史人物原貌了。可是,技术的滥用也会造成危害。恶搞的尼古拉斯·凯奇脸超人也许并不是什么大事,但是用名人脸造假牟利就不好了,还不仅如此,如果用假视频做煽动性的假新闻,还可能会造成严重的社会问题。

那么现在有办法分辨假视频吗?办法还是有的。制作假视频的方法,简单地说,主要就是“换脸”,用大量人脸照片训练人工智能,然后,人工智能再把要被假冒的那个人的脸换到视频里去。这种假视频里的人物往往不会像真人那样眨眼睛。人类平均每分钟眨眼17次,但照片上的人像一般不会是闭着眼睛的,于是,通过照片学习的人工智能也就不会习得一个人正常眨眼是什么样的。所以,我们可以检测视频里每一帧中眼睛的睁开程度,通过人物眨眼的时间来判断真假。

不过,我们现在发现的问题在以后的“造假”中肯定会被逐步改进,人工智能今后必将制造出越来越“真实”的人物。而且,逼真不逼真可能并没有那么重要。就像现在的网络谣言一样,哪怕漏洞百出,只要戳中人们的心理偏好就会得到数万次、数十万次的分享,可之后的辟谣消息也许只会获得几百次分享。假视频很可能也会如此,只要足够吸引眼球就会在朋友圈泛滥成灾,而专业人士的大声疾呼却应者寥寥。

技术的进步不可避免,视频真假难辨时代的来临也许就近在眼前,我们需要培养自己关注真相的意识,对网络上形形色色的消息要多保留几分疑问,不能让自己被热点牵着鼻子走。

这里是玉米实验室,每天一张放学小报。

小电影

DeepFake换脸

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180618B0WQO100?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券