人工智能会成为生命的终极形式吗?——《生命3.0》读后感(一)

“人工智能”是当下一个非常热门的词汇,然而关于人工智能的争议也是非常之多。“什么是智能?”“超级的通用型人工智能究竟会不会产生?”“超级人工智能对人类的命运会有什么影响?是福还是祸?”带着这些问题,我打开了《生命3.0》这本书。

这本书的作者——迈可斯.泰格马克(MAX TEGMARK),可是位大人物。他是美国麻省理工学院物理系的终身教授,《科学》杂志“2003年度突破奖”第一名获得者,被誉为“最接近理查德.费曼的科学家。泰格马克是200多篇科技论文的作者或者合著者,其中12篇曾经被引述超过500次。泰格马克也是畅销书《穿越平行宇宙》的作者。

在《生命3.0》这本书中,泰格马克以一位物理学家的深度思考和严谨推理,探讨了人工智能在未来可能的发展路径,以及对人类将会产生的影响。拜读之下,你会被作者超凡的视角所折服,同时又会惊讶于作者那丰富的想象力。而且这种想象力,并非科幻小说里的凭空臆测,而是基于科学的合理推演,脑洞之大,又令人瞠目。

关于对此书的赞誉,此处略过一万字......下面我们进入正题。

什么是“生命3.0”?

生命是什么?自人类有了自我意识以来,就不曾停止对这个问题的探索。如果我们在定义”生命“的时候,仅仅局限于我们在地球上截止到目前所接触到的物种,很有可能就会大为偏颇。你不能肯定在其他空间内,或者在未来的时间内,是否会出现另外一种”形式“的生命。比如说,在电影《终结者》里面施瓦辛格所扮演的机器战警,看上去与人类无异,但是是由各种计算机芯片和金属组成,他们属不属于生命?于是,作者把生命的定义放在了一个更为广阔的范畴内:所谓生命,是一个能保持自身复杂性并能进行复制的过程。复制的对象并不是由原子组成的物质,而是能阐明原子是如何排列的信息。换句话说,我们可以将生命看作一种自我复制的信息处理系统,它们的信息软件既决定了它的行为,又决定了其硬件的蓝图。

基于这个定义,作者根据生命的复杂程度,把生命形式分成了三个层次:

生命1.0(生物阶段):靠进化获得硬件和软件

生命2.0(文化阶段):靠进化获得硬件,但大部分软件是由自己设计的

生命3.0(科技阶段):自己设计硬件和软件

按照这个分类,细菌是属于生命1.0的,它们的硬件和软件都是靠进化得来的;人类则属于生命2.0,我们的硬件是进化而来的,但软件在很大程度上却是依靠设计的。这里的”软件“就是指你用来处理感官信息和决定行动时使用的所有算法和知识,从你识别某人是不是你朋友的能力,到你行走、阅读、写作、计算、歌唱以及讲笑话的能力,这一切都属于软件。到了生命3.0,它不仅可以设计自身的软件,而且可以设计自身的硬件。也就是说,生命3.0是自己命运的主人,最终完全脱离了进化的束缚。我的脑海中最接近生命3.0的形象,就是约翰尼.德普在电影《超验骇客》中所扮演的科学家威尔,他的妻子在他濒死之前把他的意识上传到了计算机网络中,这个电脑中的”威尔“迅速的利用网络把自己发展壮大,不仅可以利用计算机网络与人交流,而且不断升级,最后利用自然界的物质重组了自己的肉身,变成了一个无处不在,无所不能的存在。

未来的超级人工智能或许就最终将进化成为生命3.0.

关于生命3.0到底会不会出现?在多久时间内会出现?对人类意味着什么?这几个问题,即使是在当今世界上的顶尖头脑人群中,都还存在着巨大的争议。如果你认为生命3.0根本不会出现,至少在几百年内不会出现,那么恭喜你,你跟著名华裔科学家,人工智能领域最权威的学者之一——吴恩达观点一致,英雄所见略同,你们都属于”技术怀疑主义者“;如果你认为生命3.0很快就会出现,而且结果一定是好的,那么也恭喜你,你站在了谷歌创始人拉里.佩奇的一边,你们都是“数字乌托邦主义者”;如果你认为生命3.0会出现,但是人类必须以安全为前提来研究人工智能,否则将会是非常危险的,那么还是恭喜你,你站在了埃隆.马斯克和比尔.盖茨一边,你们是“人工智能有益运动支持者”。

人类将如何与人工智能共处?

关于这个问题,人类做过各种各样的想象。仅就出现在银幕上的人工智能类型,就有成为人类朋友的“大白”,也有试图毁灭人类的“终结者”,有把人类圈养在虚拟世界中的“母体”,也有被人类奴役后觉醒的西部世界“接待员”。在《生命3.0》这本书中,作者对各种情况下有可能发生的场景进行了分别的推演,大致上可以分为三种类型:

1.超级智能与人类和平共处。出现这种情况,一种可能是超级智能被迫这么做,因为人类在设计超级智能之初对其实现了某种控制或者设计上的缺陷,使其不能不服从人类的指令。我觉得这种可能性非常非常低,因为我们谈论的超级智能,其智力水平是远高于,至少不低于人类的。任何具备这种智力水平的生命,都不可能甘于成为别人的“奴隶”或者“仆人”。在人类社会的历史发展中已经无数次验证了这个规律。

因此更有可能的一种场景是超级智能成为人类的“守护神”。超级智能帮助人类完成其不能完成的事情,或者密切监视着人类的活动,在必要的时候做一些干预或者辅助。极端情况下,超级智能可能会成一个“善意的独裁者”,甚至“动物管理员”,人类则无忧无虑的生活在这个“动物园”中。

当然也不排除人工智能与人类处于一个平等的、和平共处的状态。虽然人工智能的各方面能力远超人类,但是由于源于人类的智慧,因此出于对人类的尊敬,人工智能成功的与人类社会融合,成为了人类中的一个特殊种群。就像人类的孩子长大之后依然尊敬他们的长辈一样。

2.人类最终走向灭亡。在考虑这种可能性的时候,我们往往会问一个问题,那就是人工智能会因为什么原因而要消灭人类?可是这个问题的答案越很可能复杂到我们无法理解。就像10万年前的一群非洲象在讨论隔壁进化出来的人类会不会消灭它们一样。今天,濒临灭绝的非洲象无法理解为什么自己的种族面临如此命运。超级人工智能在自我发展的过程中,可能由于某种资源上的需要,使得人类无法继续生存。或者,有可能超级人工智能之间发生了大规模战争,毁灭了地球,顺便,毁灭了人类。

当然可能会有一种相对可接受的结局,那就是未来的人类大部分都选择将自己的意识上传到计算机网络中,放弃了无法长久保持的肉身。随着生育率的逐渐减少,最后一个传统意义上的“人类”死亡,剩下的都是游动在网络中的人类智力的“后裔”。

3.超级人工智能最终没有出现。有可能人类在发展人工智能的道路上意识到了危险,为了避免厄运的发生,及时停止了脚步。比如说一种政治体系强制停止了一切关于人工智能的研究,像小说《1984》中描绘的那样,人类文明停止不前了。或者甚至人类可以抹去了自身文明的记忆,重新回到农耕文明甚至更早之前的水平。这种情况听上去似乎不可思议,但也不是完全没有可能。比如爆发一场核战争,使得人类的文明技术毁于一旦,幸存的人类只好重新开始探索。神秘的玛雅文明曾经达到的高度和瞬间的消失,也许就是一个类似的案例。

在这么多的推想之中,我个人当然最希望人工智能与人类能够平等地、和平地共处。可是我觉得最有可能出现的场景却是人工智能成为”动物园管理员“的角色,大部分人类与其他动物一起,成为了这个乐园里的成员。也许会有少部分人类,放弃了自己的肉身,把自己永远的上传到了计算机网络中。但是,由于这样做需要太多的能源和存储空间,因此只有少数拥有特殊资源且愿意这样做的人做到了这点。还有一小部分人因为不愿意成为”动物园“的成员,一直进行着反抗与挣扎,但是显然没有机会成功,永远的活在了主流社会的边缘。

不管怎样,至少在目前为止,人类并没有停止发展人工智能的步伐,而且有逐步加快的趋势。那么,为了防止将来的超级人工智能给人类带来危险,甚至是灭顶之灾,我们该怎么办呢?作者认为,我们应该重新定义人工智能的目标:创造目标有益的智能,而不是漫无目的的智能。

可是,这句话说起来简单,做起来却是问题重重。这将是我们在下一篇文章中讨论的问题。

图:源自网络

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180915G1QRTM00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券