首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

那些最强大脑对我们的警告

人类社会对于人工智能的担忧和不信任由来已久,包括那些人类最强大脑,从图灵、霍金到比尔·盖茨、埃隆·马斯克都曾发出过警告,人工智能总有一个会为了自己的利益灭掉人类。

那事情真的有这么严重么?我们来看看这种说法的依据是什么。

首先,给你介绍一个概念,叫加速回报定理。什么意思呢?就是整个人类文明是加速前进的。比如说,如果我们把一个三百年前的清朝人拉到今天,他看到汽车飞机,还有满大街的手机,肯定吓尿了。那么,如果这个清朝人也想吓唬一下他的前人,他该回到多少年前呢?三百年肯定是不够了,清朝和明朝的差距根本没法把一个明朝人吓尿。他至少需要回到一万年前,去找一个刚脱离原始社会的古代人,让这个古代人看到宏伟的宫殿,车水马龙的集市,才有可能把他吓尿。同样,如果这个古代人也想吓唬一下他的前人,他就不能只回到一万年以前,而是要回到几十万年以前找一个原始人,然后用火以及它们用语言交流的能力,把那个原始人吓尿。

人工智能的发展,也是一个加速回报的过程。第一台电脑诞生到现在才不过五十多年时间,你看它的运算能力都已经发展到什么程度了?人家还学会了对外界进行简单的判断,比如筛选垃圾邮件啊,根据人的品味推荐软件啊等等。也就是说,人工智能也像生物那样,不断朝高级阶段演化。但问题是,人工智能的进化速度几乎是生物的几千万倍,人类成千上万年完成的进化,它们几十年就完成了。而且,根据加速回报定理,它们进化的速度只会越来越快,昨天我们可能还觉得机器人像黑猩猩一样呆萌,第二天它可能就推导出广义相对论了。所以用不了多久,聪明得没法理解的人工智能就可能主宰整个人类的命运。

你可能会说,就算电脑再聪明,他们也不一定很坏啊?问题就在这里,对于人工智能而言,不存在好坏的概念,而只有道德与非道德的区别。

打个比方,从基因的角度来看,我们人类就很像机器人,基因有一条核心代码——要想办法把它传递下去,反映到我们人类的行为上,就是男性会通过送花这样的形式来追求女性,而女性也会精心打扮自己来努力吸引男性,一切就是那么自然。但你想过没有,对于被摘掉的花和为了美而剪掉的头发而言,我们有考虑到对它们是否道德吗?没有,我们纯粹只是为了完成基因内在的目标而已。

同样,人工智能可能为了实现它的核心目标,而需要伤害、利用甚至消灭人类,就跟我们摘花剪头发一样,压根没有什么道德可言,也不需要它们很邪恶。就拿一台会下棋的人工智能为例,它的核心代码可能很简单,就是不断打败对手。为了实现这个目标,它会学习棋艺,会连接互联网读取棋谱,进一步它可能会观察人类心理以压迫对手,然后它可能会意识到有的人想拔掉它的电源,断它的网。那为了避免断网,它就可能会采取手段,来奴役甚至消灭那些潜在威胁的人。原因也不是别的,就是因为它想下棋而已。

你可能会说,这根本就不是问题嘛,一开始设计它们的时候,别有Bug,这样它不就按照咱们人类预想那样进化了吗?很遗憾,根本就做不到。人类创造所有软件的1.0版本几乎都是有Bug的,咱们根本不知道自己最初以为完美无缺的代码,后来会发展成什么样子。比如,我们最初设定人工智能的唯一目标是要让人类快乐,但它在发展过程中,可能会发现最简单的方法就是给大脑植入电极来刺激快乐中枢,结果就演变成了黑客帝国里那样,所有人类都被人工智能奴役到一个虚拟世界中去了。而且,人工智能又跟过去的软件不一样,一旦他发展成了超级智能,那我们人类也就拿它们没办法了,不可能再把它停下来打补丁修改代码。任何人工智能的1.0版本,都很有可能是终极版本。

所以,图灵、霍金、比尔•盖茨、埃隆•马斯克这些人,不可能没有意识到人工智能蕴藏的巨大商业价值,但他们依然公开表示要谨慎,这种担心是有道理的。我们在享受技术进步带给我们便利的同时,也得对这些我们制造出来的智能玩意儿,保有一份戒心才好。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200903A0PDHP00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券