前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器人崛起,你为什么不紧张?—源于人类思维偏差

机器人崛起,你为什么不紧张?—源于人类思维偏差

作者头像
企鹅号小编
发布2018-01-25 16:25:48
7520
发布2018-01-25 16:25:48
举报
文章被收录于专栏:人工智能人工智能人工智能

回忆一下,身边是否有过智商高于160的、极聪明的朋友,和他们一起头脑风暴的时候是否有跟不上节奏的情况?聊天时是否总是担心自己的某些小心思透过片言只语被一眼看穿?再想象一下,一个智商200的人,会是什么样的?

神探夏洛克版莫里亚蒂

然后,智商10000的呢?或许有人会觉得智商10000太荒谬了,不可能有这样的人存在。

智商10000的“人”有没可能存在?这里先卖个关子,先抛给大家另一个小问题。

什么是奇点?

对物理学、宇宙学有一定涉猎的朋友会告诉我——奇点是宇宙大爆炸前,宇宙的存在形式。它具有一系列奇异的性质,无限大的物质密度、无限弯曲的时空和无限趋近于0的熵值等。按照霍金在《时间简史》中的论述,宇宙始于奇点,终将归于奇点。

奇点是宇宙的发端,亦是宇宙的终焉

精通数学的朋友则会说,奇点通常是一个当数学物件上被称为未定义的点,或当它在特别的情况下无法完序,以至于此点出现在于异常的集合中。诸如导数。参见几何论中一些奇点论的叙述。

那么,什么是人工智能的奇点?

当人工智能超越人类的那一具体时间点,被称为奇点。

请记住奇点这个概念,再回到我们的标题。这一问一答,我们要拆解成三步去看。

1、为什么我说机器人崛起了?

——因为奇点已近。

我这里所说的机器人,只是一种泛称,机器人作为一种工具本身没什么了不起,了不起的是人工智能芯片。

美剧《西部世界》中构想的人工智能机器人

人工智能被我们划分为三个阶段,弱人工智能——强人工智能——超人工智能。现阶段,我们身边充斥着大量弱人工智能(智能语音助手、导航系统等等),但这并不意味着奇点距离我们还很遥远,要知道人类的文明进程是呈非线性增长的。

事实上,我们现在恰在拐点位置,此后的发展速度将超过绝大多数人的想象。

举个例子,去年3月9号,AlphaGo与李世石下围棋的时候,用了上千台机器。到了今年5月份与柯洁下围棋的时候,只用了一台机器,但是棋力提升了729倍!

软银创始人孙正义被称为“能看后50年行业趋势的牛人”,以下是他今年三月在MWC 2017上发表的部分演讲内容。

当我们在讨论大脑的能力之时,我们通常会用IQ来衡量。普通人的IQ是100,爱因斯坦、达芬奇这样的天才的IQ大概在200左右。假如你的IQ达到200,你也就是天才,我不知道在座的各位有多少人的IQ达到了200(笑)。不管怎样,IQ为200的是天才,100的是普通人,相信在座各位的IQ都高于100(笑)。

不过,同样是IQ这个指标,30年后,电脑会达到多少?我认为是10000。

那么,问题来了。人的IQ高于200叫天才,那么IQ达到10000的家伙,我们该称呼它什么呢?超级智能。

人们可能完全无法想象IQ为10000的家伙有多聪明,但是,我认为这家伙在未来30年就会成为现实。

孙正义还讲到一个有趣的细节,到2018年,一块集成电路的芯片里的晶体管数量,将达到300亿个,而大脑里的神经元数量也才300亿个。

在未来的某一天,你在家穿着一双拖鞋。左边这只鞋里的芯片智商是10000,右边这只里的也是10000,而你的智商才一百多,你怎么还以为你是它的主人呢?

孙正义认为30年后,人工智能的智商将达到普通人类的50倍,而我却觉得这种判断依然陷入了以往的思维惯性。

事实上,一旦人工智能达到人类的智商,由于其自身具有“递归的自我改进”机制,将会产生智能爆炸。国外waitbutwhy网站上有一种有趣的说法是,在人工智能达到人类四岁小孩智商水平的一小时后,它将推导出统一广义相对论和量子力学的物理理论,之后一个半小时内,它就会成为智商达到普通人17万倍的超人工智能。

2、为什么我们应该紧张?

顺承上一部分的内容,这个问题的答案也就不言自明了,一个智商达到人类十七万倍的超人工智能是我们无法揣度的存在。

我们会认识一些智商极高、性格古怪的朋友——智商160的人类尚会有一些我们难以理解的举动,那么智商达到人类17万倍的超级人工智能到底可能采取什么样的行动?会否为了文明的延续而彻底抹杀人类这种对生存环境要求极为苛刻的脆弱生物?正如不同年代出生的人会有代沟,智商差距宛如鸿沟的智慧生物之间必定也存在着“智壑”。

下图是几位名人对于人工智能的态度。

在接受英国广播公司的采访时霍金说,这种技术会迅速演变并超过人类,那时将会出现电影《终结者》中想象的一幕。

“我们已经拥有原始形式的人工智能,而且已经证明非常有用。但我认为人工智能的完全发展会导致人类的终结”,霍金教授在星期二播出的采访中说。

“一旦经过人类的开发,人工智能将会自行发展,以加速度重新设计自己。”

这位被认为是世界上最聪明的在世科学家接着说,“由于受到缓慢的生物演化的限制,人类不能与之竞争,最终将会被代替”。

电动汽车公司特斯拉、商业太空飞行公司SpaceX首席执行官埃隆·马斯克(Elon Musk)不是人工智能的坚定拥护者,相反他称后者为“人类生存的最大威胁。”

马斯克警告人工智能存在的巨大威胁,呼吁对人工智能加强监管,以确保“我们不会做蠢事”。他日前参加麻省理工学院航空与航天学院百年研讨会时表示:“如果让我猜人类最大生存威胁,我认为可能是人工智能。因此我们需要对人工智能保持万分警惕,研究人工智能如同在召唤恶魔。”

“我正在关注超级智能。首先,在开始的时候机器会为我们做很多工作,这些机器并不是超级智能。如果我们处理得很好的话,这应该是具有积极意义的。那之后的几十年,人工智能会强大到足以引起人们的关注。我同意伊隆·马斯克和其他一些人的说法,不明白为什么有些人并不关心。” 盖茨所指的是伊隆·马斯克最近表示人工智能“可能比核武器更危险。”

3、为什么我们中的大多数并未产生危机感?

这个问题要分两种情形去讨论,一部分朋友是由于信息不对等,此前并未意识到超人工智能将会来得如此猛烈而迅速;另一部分朋友知晓实情,也认识到超人工智能将会对人类社会带来怎样的颠覆,却依然无法产生紧张感。

我们重点讨论下第二种情况的成因,这是一种有趣的心理学现象,被称为“正常化偏差”。

可以用我国古代的一句俗谚来概括——“不撞南墙不回头”,就是说人突然处在一种极危险的状态之下时,大多数人会出现类似于应激障碍的情况,安之若素,认为事情没有那么严重。

911事件中,飞机已经撞上世贸中心大楼了,这么不正常的事儿都发生了 —— 但是当时在世贸大楼里工作的人,居然还有心情跟亲友打电话闲聊。亲友说我看电视新闻你们那儿飞机撞楼了,他这边居然没当回事儿。接到疏散通知以后,有的人还在楼道里跟同事聊天,想先看看别人的反应再说,结果就没跑出来。

来源:罗辑思维

五角大楼被炸

类似的例子还有很多,比如家中忽然发生火灾,有人会因为想多转移一些财物而贻误最佳逃生时机,导致最终葬生火海。

为什么这种偏差难于被人察觉?这就要说到另一个概念——“幸存者偏差”,因为轻视危险没从火海里出来的人死了,他没有机会表达自己的后悔,而同样转移了财物并且侥幸从火海逃生的人则不会认为自己的行为有什么不妥,这就形成了幸存者偏差,幸存者偏差又加剧了这种正常化偏差。

面对人工智能机器人,我们需要剔除正常化偏差,保持必要的警醒,它与我们此前的所有工具都不一样,核武器再强也是一堆死物,需要人下达命令,人工智能却有自行决断的能力。

试想一下,二十年后,万物互联的时代将会到来,物联网芯片数量将增长到一万亿,我们生活中几乎一切电子产品都被纳入物联网体系。这意味着一个高明的黑客可以轻易让我们家中的电器设备运转或是停摆甚至可以控制家用无人汽车的行驶路径,当然彼时的网络安全技术应当也极为成熟,这里只是举了一个例子。可是我们的网络安全技术在超人工智能机器人面前会有用吗?一颗比人类强大17万倍的脑袋,借助着万物互联的技术,几乎可以做到为所欲为。

所以,我们不能被近百年因科技成长所获得的便利蒙住了双眼,技术并非只会将人类带往更美好的未来,也有可能将我们带往无可挽回的深渊。有人说技术无罪,可是技术本身也无功,是功是罪,终还是取决于人的使用方式和结果。

我们不可能去反对人工智能的发展,这是反智。没有探索精神的人类不会发展到今天的地步,可是我们也不能盲目乐观,要对人工智能技术有清醒的认知,在技术推进过程中要保持谨慎,关键节点处不可冒进,始终要确保事态在掌控能力范围以内。

往期文章推荐

人工智能名人堂第49期 | 斯坦福研究院名人堂成员:Peter E. Ha

本文来自企鹅号 - 德先生媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文来自企鹅号 - 德先生媒体

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
腾讯云小微
腾讯云小微,是一套腾讯云的智能服务系统,也是一个智能服务开放平台,接入小微的硬件可以快速具备听觉和视觉感知能力,帮助智能硬件厂商实现语音人机互动和音视频服务能力。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档