前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >人工智能的革命:人类的死或生(1/10)

人工智能的革命:人类的死或生(1/10)

作者头像
Peter Lu
发布2018-06-20 10:17:06
5870
发布2018-06-20 10:17:06
举报
文章被收录于专栏:LETLET

在人类发展史中,AI很可能是全人类的未来,同时也是一个极为复杂的挑战,复杂到没有人能够知晓实现AI的时间点。 ---Nick Bostrom

我们在上一篇提到的狭隘型AI只在某一特定领域发挥作用,比如我们日常生活中常常用到的路线规划以及棋类运动,目前这类AI系统在我们生活中已经很常见了。接着我们分析了从狭隘型AI突破为通用型AI的巨大挑战。尽管难度很大,考虑到历史上科技提升的指数级特性,或许实现AGI的过程比我们预料的要容易很多。在上一篇尾声我感慨到,如果真的有一天人类实现了AGI,AI的智慧和人并驾齐驱,那会怎样?真实的场景可能是这样的:

面对AI的迅雷不及掩耳之势,,人类只能望其项背了。在日常生活中,AI将无所不在,带给我们很多全新的概念,全方面的超过我们,很难想象真的到了那一天,我们的阴影面积会多大。

在我们实现这些想法前,我们先冷静一下:真的有一台机器具有了ASI的能力,这会是一种什么样的感觉。

首先就是速度和质量的显著不同。当我们讲这是一台聪明的电脑,通常第一反应是它和我们一样的聪明,但思维要快——在她们看来,ASI和人一样聪明,只是要快一万倍而已。换句话说,人类需要十年才能做到的事情,它们五分钟能够搞定。

ASI速度之快远超人类——但两者的本质区别在于智慧的深度,这需要从另一个层面来理解。人类比猩猩聪明,区别不在思维速度上——而是人脑拥有一系列复杂的认知模式,能够掌握语言表达,长期规划,抽象总结等复杂技能,就算是来自星星的猩猩,也做不到这些。假如一只黑猩猩的大脑运转速度加快,它也达不到人类智慧的水准——一个人花费几个小时就可以把各类工具组装成一个复杂的模型,但对一只黑猩猩而言,给它十年也做不到。无论多久的时间,多大的努力,黑猩猩不可能拥有和人类一样的认知力。

但黑猩猩的这种“臣妾做不到”,并不仅仅是行为的表象,而是它的大脑不能正确的理解这些行为的内在涵义——它可能会熟练的分辨什么是人,什么是摩天大楼,但永远无法理解,摩天大楼是人类建造的。在它的世界,任何巨大的物体都是大自然的一部分。对于猩猩而言,不仅不能建造摩天大楼,而且也无法意识到这是出自人类的杰作(而非自然造物)。一丁点智商本质的差别也会造成巨大的差异。

我们讨论到智商的差异,更准确的说,是生物物种间智商的差别,其实猩猩和人类的差距很微小。如下是不同物种间认知力和智慧的差别:

接下来,我们就要领教一下一个超级人工智能有多厉害。设想比人类要高两个台阶的地位,也就是深绿色的位置。这时的AI只是很初级的超级智能,认知力上和人类的差距,相当于人类和猩猩之间的差距一样大,这也是人类在超级AI眼中的感觉。就像无能的猩猩一样,机器无论怎样解释,我们也无法参透它们的所作所为——所以AI机器只好自娱自乐了。而这只比我们高出两个台阶。如果AI再高几个台阶,和人类的差距就如同人类和蚂蚁的差距——它得花费数年才能教会我们一星半点的概念,因此这种努力也就没有了意义。

而我们真正讨论的那种超级AI更有甚于此。在一个智慧大爆炸时代——一台聪明的机器就会越聪明,最终将发展到智慧的极限——一台机器可能要花费数年从猩猩的等级提升到更高一层,但可能只用个把小时就能从深绿色位置(高于我们两个台阶),跳跃到高于我们十个台阶的位置,接踵而来的就是每隔数秒提升四个台阶。所以当我们意识到终于有一台机器达到人类级别的智慧时,还没来得及庆祝,AI就会直接吊打人类。我们可能要接受一个现实:如何和通用型AI在地球上共存:

当我们放弃无谓的挣扎,面对仅仅比我们高两个台阶的一台机器,垂头丧气的承认无法理解它的所作所为时,人类会很释然的坦言,我们看不懂这些机器的做法,而且也无法预估其后果。面对这个现实,只有脑子锈掉的人才会继续装傻。

经过上亿年的进化,生物类的大脑才有了缓慢的提高,在这种意义下,如果人类创造了超级AI,这是对进化论一种肆意的践踏。或许今后的进化走势是这样的——举步维艰,不断的积跬步,最终人类还是创造出了一台超级AI机器,然后画风突变,整个世界的游戏规则也随之改变,不过这时不是人类,而是AI,将会主宰所有物种新未来:

目前,学术圈中有相当一部分相信,达到这条导火索的唯一问题就是时间。这个观点有点疯狂,详细的介绍我们稍后会提到。

而人类会怎样的?

这个世界上没有人,特别是我,能够告诉你答案。牛津大学的哲学家和AI领域卓越的思想家Nick Bostrom把所有潜在的可能归纳成了两类。

首先,从历史的维度来看,我们可以发现一个物种的发展走势吻合这样的规律:物种的爆发,生存了一段时间,然后某个时刻,不可避免的跌落出生存平衡带,最终消亡。

“你本是泥土,仍将归于泥土”,纵观历史,这是一条不变的法则,我们也不例外。迄今为止,99.9%的地球物种都已经消逝。所以不难得出,当一个物种开始摇摇坠坠的跌落出平衡带,灭亡只是时间问题,大自然不小心刮起了一股风,或者不经意的小行星撞击,都有可能造成大规模的物种灭绝。Bostrom称灭绝是引力场状态——在这种引力下,物种都会缓慢的步入这个区域,然后一去不返。

我随机的访问了几位认同这种观点的科学家。他们承认,超级AI有消灭人类的能力,而且这对AI来说是一个有益选择。超级AI可以植入人体,而所有的物种则会进入第二种引力场状态——永生。Bostrom认为物种的永生和灭亡一样,也是一种引力场状态,如果我们能够达到这种状态,我们就能攻克灭亡。尽管迄今为止所有的物种都是跌落出平衡带,最终灭亡,也许这只是地球还没有达到足够的智慧程度,能够引导我们逆转到另一个状态。

如果Bostrom 和其他科学家的观点是正确的,而且从我所了解的情况来看,他们真的很可能是正确的,那么作为人类,我们就要接受下面两个事实:

  • 随着超级AI的首次出现,物种永生不再是梦想,AI会指引我们来到平衡带永生的那一面。
  • 超级AI的出现势必会带来巨变,无论是灭亡还是永生,给人类带来的变化是决定性的。

关于未来,剧本可能是这样的:当人类的进化碰触到了导火线,超级AI随之出现,将会永远的终结人类和这个平衡带的关联,无论未来有没有人类,我们将会创造一个美丽新世界。

面对这样的一个剧情,首先我们就得掂量一下,什么时候会碰到这个导火索?一旦超级AI实现了,我们该何去何从?

答案不得而知,但很多非常聪明的人已经在这些问题上思考了数十年。在接下来的内容中,会和大家一起分享他们的真知灼见。(未完待续

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-06-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 LET 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档