人工智能的革命:人类的死或生(1/10)

在人类发展史中,AI很可能是全人类的未来,同时也是一个极为复杂的挑战,复杂到没有人能够知晓实现AI的时间点。 ---Nick Bostrom

我们在上一篇提到的狭隘型AI只在某一特定领域发挥作用,比如我们日常生活中常常用到的路线规划以及棋类运动,目前这类AI系统在我们生活中已经很常见了。接着我们分析了从狭隘型AI突破为通用型AI的巨大挑战。尽管难度很大,考虑到历史上科技提升的指数级特性,或许实现AGI的过程比我们预料的要容易很多。在上一篇尾声我感慨到,如果真的有一天人类实现了AGI,AI的智慧和人并驾齐驱,那会怎样?真实的场景可能是这样的:

面对AI的迅雷不及掩耳之势,,人类只能望其项背了。在日常生活中,AI将无所不在,带给我们很多全新的概念,全方面的超过我们,很难想象真的到了那一天,我们的阴影面积会多大。

在我们实现这些想法前,我们先冷静一下:真的有一台机器具有了ASI的能力,这会是一种什么样的感觉。

首先就是速度和质量的显著不同。当我们讲这是一台聪明的电脑,通常第一反应是它和我们一样的聪明,但思维要快——在她们看来,ASI和人一样聪明,只是要快一万倍而已。换句话说,人类需要十年才能做到的事情,它们五分钟能够搞定。

ASI速度之快远超人类——但两者的本质区别在于智慧的深度,这需要从另一个层面来理解。人类比猩猩聪明,区别不在思维速度上——而是人脑拥有一系列复杂的认知模式,能够掌握语言表达,长期规划,抽象总结等复杂技能,就算是来自星星的猩猩,也做不到这些。假如一只黑猩猩的大脑运转速度加快,它也达不到人类智慧的水准——一个人花费几个小时就可以把各类工具组装成一个复杂的模型,但对一只黑猩猩而言,给它十年也做不到。无论多久的时间,多大的努力,黑猩猩不可能拥有和人类一样的认知力。

但黑猩猩的这种“臣妾做不到”,并不仅仅是行为的表象,而是它的大脑不能正确的理解这些行为的内在涵义——它可能会熟练的分辨什么是人,什么是摩天大楼,但永远无法理解,摩天大楼是人类建造的。在它的世界,任何巨大的物体都是大自然的一部分。对于猩猩而言,不仅不能建造摩天大楼,而且也无法意识到这是出自人类的杰作(而非自然造物)。一丁点智商本质的差别也会造成巨大的差异。

我们讨论到智商的差异,更准确的说,是生物物种间智商的差别,其实猩猩和人类的差距很微小。如下是不同物种间认知力和智慧的差别:

接下来,我们就要领教一下一个超级人工智能有多厉害。设想比人类要高两个台阶的地位,也就是深绿色的位置。这时的AI只是很初级的超级智能,认知力上和人类的差距,相当于人类和猩猩之间的差距一样大,这也是人类在超级AI眼中的感觉。就像无能的猩猩一样,机器无论怎样解释,我们也无法参透它们的所作所为——所以AI机器只好自娱自乐了。而这只比我们高出两个台阶。如果AI再高几个台阶,和人类的差距就如同人类和蚂蚁的差距——它得花费数年才能教会我们一星半点的概念,因此这种努力也就没有了意义。

而我们真正讨论的那种超级AI更有甚于此。在一个智慧大爆炸时代——一台聪明的机器就会越聪明,最终将发展到智慧的极限——一台机器可能要花费数年从猩猩的等级提升到更高一层,但可能只用个把小时就能从深绿色位置(高于我们两个台阶),跳跃到高于我们十个台阶的位置,接踵而来的就是每隔数秒提升四个台阶。所以当我们意识到终于有一台机器达到人类级别的智慧时,还没来得及庆祝,AI就会直接吊打人类。我们可能要接受一个现实:如何和通用型AI在地球上共存:

当我们放弃无谓的挣扎,面对仅仅比我们高两个台阶的一台机器,垂头丧气的承认无法理解它的所作所为时,人类会很释然的坦言,我们看不懂这些机器的做法,而且也无法预估其后果。面对这个现实,只有脑子锈掉的人才会继续装傻。

经过上亿年的进化,生物类的大脑才有了缓慢的提高,在这种意义下,如果人类创造了超级AI,这是对进化论一种肆意的践踏。或许今后的进化走势是这样的——举步维艰,不断的积跬步,最终人类还是创造出了一台超级AI机器,然后画风突变,整个世界的游戏规则也随之改变,不过这时不是人类,而是AI,将会主宰所有物种新未来:

目前,学术圈中有相当一部分相信,达到这条导火索的唯一问题就是时间。这个观点有点疯狂,详细的介绍我们稍后会提到。

而人类会怎样的?

这个世界上没有人,特别是我,能够告诉你答案。牛津大学的哲学家和AI领域卓越的思想家Nick Bostrom把所有潜在的可能归纳成了两类。

首先,从历史的维度来看,我们可以发现一个物种的发展走势吻合这样的规律:物种的爆发,生存了一段时间,然后某个时刻,不可避免的跌落出生存平衡带,最终消亡。

“你本是泥土,仍将归于泥土”,纵观历史,这是一条不变的法则,我们也不例外。迄今为止,99.9%的地球物种都已经消逝。所以不难得出,当一个物种开始摇摇坠坠的跌落出平衡带,灭亡只是时间问题,大自然不小心刮起了一股风,或者不经意的小行星撞击,都有可能造成大规模的物种灭绝。Bostrom称灭绝是引力场状态——在这种引力下,物种都会缓慢的步入这个区域,然后一去不返。

我随机的访问了几位认同这种观点的科学家。他们承认,超级AI有消灭人类的能力,而且这对AI来说是一个有益选择。超级AI可以植入人体,而所有的物种则会进入第二种引力场状态——永生。Bostrom认为物种的永生和灭亡一样,也是一种引力场状态,如果我们能够达到这种状态,我们就能攻克灭亡。尽管迄今为止所有的物种都是跌落出平衡带,最终灭亡,也许这只是地球还没有达到足够的智慧程度,能够引导我们逆转到另一个状态。

如果Bostrom 和其他科学家的观点是正确的,而且从我所了解的情况来看,他们真的很可能是正确的,那么作为人类,我们就要接受下面两个事实:

  • 随着超级AI的首次出现,物种永生不再是梦想,AI会指引我们来到平衡带永生的那一面。
  • 超级AI的出现势必会带来巨变,无论是灭亡还是永生,给人类带来的变化是决定性的。

关于未来,剧本可能是这样的:当人类的进化碰触到了导火线,超级AI随之出现,将会永远的终结人类和这个平衡带的关联,无论未来有没有人类,我们将会创造一个美丽新世界。

面对这样的一个剧情,首先我们就得掂量一下,什么时候会碰到这个导火索?一旦超级AI实现了,我们该何去何从?

答案不得而知,但很多非常聪明的人已经在这些问题上思考了数十年。在接下来的内容中,会和大家一起分享他们的真知灼见。(未完待续

原文发布于微信公众号 - LET(LET0-0)

原文发表时间:2016-06-09

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏镁客网

泛 IP 时代的 VR 游戏该怎么玩?

895
来自专栏用户3254834的专栏

小伙伴们,你们还记得“人人网”吗

早前盘点了火一把就死的商业模式,大多死在了不会创新和步伐缓慢上,今天又恍惚中追忆起谜一般的反面教材,那个曾经中国最大的校园社区——人人网。

541
来自专栏新智元

美国超算将重夺全球第一,性能超神威·太湖之光2倍

1082
来自专栏大数据文摘

巴菲特股东大会实录:股神承认自己看走眼,错过了谷歌和亚马逊 | 附全文

1371
来自专栏hbbliyong

月薪3万的程序员都避开了哪些坑?

程序员薪水有高有低,有的人一个月可能拿30K、50K,有的人可能只有2K、3K。同样有五年工作经验的程序员,可能一个人每月拿20K,一个拿5K。是什么因素导致了...

37110
来自专栏何俊林

一个30岁程序员的对于中年危机的思考和应对

2005年,我怀着对大学生活无限的憧憬,上了某大学的软件工程专业。从报这个专业的第一天起,就听过无数软件行业是“青春饭”的言论。时至今日,当年青涩的毛头小子也已...

622
来自专栏科技向令说

开一家火一家!乐语Brookstone新零售转型到底施了什么魔法?

在新零售转型这件事上,几乎所有的从业者都在为自己的零售业态寻找话题,可惜成功的仅是凤毛麟角。

793
来自专栏数据的力量

互联网思维引发的集体魔症

1414
来自专栏IT派

吴晓波:未来十年,我们所认为的能力将荡然无存

这些技术变革,一方面面临伦理问题,另一方面面临到社会问题。所以未来10年一定是比刚刚过往的10年更精彩的10年。

813
来自专栏钱塘大数据

吴晓波:未来十年,我们所认为的能力将荡然无存

近日,吴晓波在《下一个十年,你在哪里?——从企业家到企投家》峰会上发表了演讲,以下为演讲原文。

725

扫码关注云+社区