狭隘型AI是一种在某一特定领域,和人类智力相当或胜出人类智力的智能机器。很很多这样的例子:
ANI系统现在并不格外让人担忧,一个小故障或错误编写的ANI能导致一个孤立的灾难,比如电力网损坏,引起核电站故障,引发金融市场的灾难(比如2010年的Flash Crash事件,一个ANI程序以错误的方式来应对一次异常情况,导致大盘狂泻,造成了一万亿美元损失,最后当错误修复,只挽回了一部分损失)。
但ANI系统还没有能力威胁到生存层面,我们应当把这个不断增大的,复杂的,并且相对无害的ANI系统当作未来改变世界的飓风前兆,而飓风现在已经上路了。每一次ANI无声无息的创新,都在为通往通用型AI和超级AI的圣殿上更上一层。Aaron Saenz意识到,当前在我们身边的ANI系统就像早期地球混沌状态下的氨基酸,这些原本无生命的材料,突然某一天就苏醒了。
当你真的试图创造一台和人类一样聪明的电脑,你就会深刻意识到这有多难,也会更加钦佩人类的智慧和学习能力。相比能够清楚的了解并复制大脑而言,摩天大楼,人类送到太空,研究清楚宇宙大爆炸的细节,这些简直小菜一碟。迄今为止,在我们已知的这个宇宙,人类的大脑最为复杂。
最困难的部分往往也是最有趣的地方,试图研制AGI(不只是在某一特定领域,而是在广义上和人类一样聪明)的方式和我们直观的想法并不一样。研制一台能够霎那间完成整数乘法的电脑非常的简单。研制一台能够看到并识别出这是一只狗还是猫的机器则异常的困难。让AI成为象棋高手,打败所有人类?这已经是事实了。给AI一本六岁儿童的读物,读一小段,识别里面的单词并理解其含义。为了达到这个成就,谷歌目前花费了上亿美元。复杂的事情,比如计算,金融市场策略和语言翻译,对电脑而言反而简单,不假思索就可以得到结果;但那些简单的事情,比如视觉,概念,运动和感知,它们却懵然不知。计算机科学家Donald Knuth说:“目前,AI在那些需要思考的领域已经很出色的证明了自己,相反,在一些人类和动物看起来很简单,不需要思考的领域却失败了。”
让我们仔细回味一下这句话,你会发现什么。我们觉得轻松平常的事情,实际上异常的复杂,之所以我们觉得简单,是因为在上百万年来的物种进化中,我们和多数动物不断的优化这些技能,所以才会如此。当你伸手去够一个物体,你肩膀,肘子和手腕间的肌肉,肌腱和骨骼立马完成了一系列的物理操作,这还要结合你的眼睛,保证在三维空间中你的手沿直线运行。对你来说这都不是事,因为你的大脑可以很完美的完成。同样,因为你的大脑已经对文字的认知极为熟悉,你可以很好的识别出不规范的验证码,而恶性软件对此却无能为力。
另一方面,对于大数运算或下棋这种新运动,生物体还没有足够的时间去进化,精通这些新技能。所以,一台电脑不需要费太多功夫就可以打败人类。设想一下,让你实现下面两个程序,你更愿意选择哪一个?一个是可以完成大数之间的乘法,另一个程序要求在随机环境下,从上千个手写的,奇形怪状的字体中理解字母B的本质,并能够立刻识别出来。你更愿意做哪一个。
下面是一个有趣的例子。当你看到这张图片,你和电脑都可以认出这是一个矩形,矩形边是两个不同的灰色交替组成:
大家看到的都差不多,但是如果你把黑色的背景去掉,显示出整个图像呢:
你可以很轻松的识别出这些不透明的,或半透明的圆柱,条状和三维拐角,但计算机就不行了。它看到的还是一个个不同灰度组成的二维形状,这就是问题的本质。你的大脑有无数奇特的能力,可以很好的解读隐含的深度,混合的阴影,并且对图片的高亮处进行特殊解读。看看下面的图片,电脑看到的是一个由黑白灰组成的二维图片,而你可以很轻松的辨别出它是一块全黑的,局部发亮的,三维效果的岩石:
而且,到目前为止我们提到的和处理的都还只是一些静态的信息。为了达到人类级别的智能,电脑还需要了解更多信息,比如面部表情的细微不同,欣慰,放松,满意,满足和高兴之间的区别,为什么《勇敢的心》很好看,而《爱国者》就有些血腥。
举步维艰,如何是好?
如果AGI成为可能,一个必要条件就是增强硬件能力。如果一个智能系统能达到和人脑一个水平,它首先需要达到和人脑一样的原生计算能力。
一种表达该能力的方式就是人脑的每秒计算量(CPS),通过获取人脑在每种结构下达到的最大CPS数,然后计算总和,可以得到人脑的CPS总值。
Ray Kurzweil简化了这个算法,通过专业的方式估算人脑在一个结构下的CPS值,以及该结构在整个人脑中的权重,根据比例获得整个人脑的CPS值。这个算法听起来有一点不可靠,但他对不同的区域多次使用了这种估算方式,发现最终的总和基本相当——大约10^16,也就是10千万亿次。
当前,世界上最快的超级计算机,中国的天河2号,已经达到了这个数值,每时钟下是34千万亿次。但天河2号也是一个鸡肋,占了720平方米的空间,使用两千四百万瓦特(人脑只用20瓦特),斥资三亿九千万构建。所以没有什么特别广泛的应用领域,甚至在商业和工业领域也无法落地。
Kurzweil认为,从可行性来看,我们可以用1000美元能购买的计算力作为衡量电脑状态的标准,当这个指数达到人脑的级别,也就是CPS为10千万亿次,这意味着AGI会变得接近于一个真实生命。
摩尔定律是一个经过时间检验的法则,它指出,每过两年,世界上最大的计算能力大约会翻番,这说明从长远看,计算机硬件的提升,和人类在历史上的发展一样,都是指数级的增长。看一下在这种增长方式下,计算机CPS值和Kurzweil提到的一千美元的计算力之间的关系,当前,一千美元可以购买大约10万亿的计算力,和下图预测的轨迹吻合:
目前,世界上一千美元的电脑已经打败了老鼠,大约是人类的千分之一。如果你还记得,1985年是人脑的万亿份之一,1995年是人脑的十亿分之一,2005年是人脑的百万分之一,这个差距已经非常小了。按照这个增长率,到2025年,我们就能够创造出一台具备人脑能力,成本也可以接受的电脑。
所以在硬件层面,在中国,AGI所需要的计算能力在技术上已经满足要求了,而十年以后则会在全球普及。但仅仅是原始的计算能力并不足以实现通用性AI——下一个问题就是如何借助这种能力实现人类级别的智能?
这是一个艰难的部分,我们还在争论之中。事实是没有人真的知道如何让它变聪明——如何让电脑达到和人类一样的智能,能够辨别什么是狗,认出一个潦草的字母B,看懂一部普通的电影。但还是有一些比较牵强的策略,而且在某些情况下,或许会有价值。下面是我遇到的一些最常见的策略:
硬件的快速提升和软件创新性实验都在同时发展,AGI可能也在快速发展,不经意就进入了我们的视线。之所以如此,主要有两大理由:
在某个时刻,AI终会达到AGI的水平,电脑具有和人类一样的智慧。然后人们和电脑在一起平等的生活。
实际上,这个想法只是我们一厢情愿而已。
事实上,一个和人类同一级别,具有同等能力和计算能力的电脑还是有很多明显优势的,比如:
AI通过编程提升自己,很可能最终成为AGI,但AI自己并不认为这是一个重要的里程碑——仅仅是从人类的角度看,这确实是一个不同寻常的日子——但对AI而言,没有任何理由止步不前。很明显,借助超越平均人类智慧的优势,AGI瞬间就会超过最聪明的人类。
当这一切发生的时候,我们会很震惊,可能也会骂娘。因为从我们的角度来看,A)在不同物种的智力对比下,一个众所周知的特征就是人类的智慧明显高于其他物种,B)我们认为最聪明的人和最笨的人之间存在明显的差别,差距就像下图那样明显:
随着AI在智力上迅猛飞涨,逼近我们,我们很容易发现它变得越来越聪明,就像动物看待我们的感觉一样。当它达到最低人类智商时——Nick Bostrom采用了术语“智障”来描述它——或许我们会欣喜的说:“太酷了,它就像是一个笨小孩。”然而,我们所认为的从智障到爱因斯坦之间的天壤之别,其实只有很小的一段范围——所以,当AG刚刚达到智障水平并宣称自己进化为AGI,马上它就会超过爱因斯坦了,而我们还浑然不知:
后事如何?
我希望你能以平常心来欣赏下面的内容,因为下面的话题开始变得不寻常而且让人提心吊胆,这是分隔符。
首先打断一下,我要提醒各位,下面我所说的每一句话都是真的——来自最受尊重的思想家和科学家的严谨的科学观点和对未来的预测,,所以一定要切记。
不管怎样,上面我们提到的,目前大多数AI模型,都涉及到通过自我提高来达到AGI水平的能力。而且一旦达到AGI水平,那些先前没有自我提高功能的系统也会变得足够聪明,能够按照他们自己的想法自我提高。
这正是我们紧张的地方:不断的递归自我提高。它的工作就像这样:
在某个级别的AI系统——我们称为人类智障水平的——通过编码,该AI的目标就是提高自己的智能。一旦它做到了,它变得更聪明——或许此刻它是爱因斯坦的级别——所以它可以在爱因斯坦的级别下优化自己的智能,随意的一个时间点实现更大的跳跃。这让它比任何人类都更聪明,进而得到更大的跳跃。随着这些跳跃越加显著,提升也更加迅速,AGI在智能方向的发展呈现井喷式,很快就能达到超级AI的水平。这称为智能大爆炸,这也是加速回报率的终极案例。
关于AI多快能够达到人类水平的通用型AI还存在很多争论。关于这个问题,我们对上百位科学家进行了问卷调查,平均时间是2040年,当你意识到AI领域的很多思想家都认为从AGI到ASI的进程会很快,你就会发现距今只有25年差距不是很大。很可能就会发生下面的情况:
AI系统花费了数十年达到了最低水平的通用型智能,尽管差强人意但不管怎样还是做到了。一台电脑可以像四岁的小孩一样理解周边,不到一小时,这个系统就明白了物理学中的大一统理论,统一了广义相对论和量子力学,这是人类绝对没能力做到的。90分钟以后,这台AI成为了超级AI,比人类要聪明170000倍。
这种数量级的超级智能不是我们能够消化的,大黄蜂财团不能再控制经济了(个人理解:凯恩斯经济中的一个财团垄断经济现象)。在我们这个世界,聪明意味着IQ达到130,愚蠢意味着IQ只有85——我们对IQ达到12952还没有任何概念。
为什么人类能完全的主宰这个星球?这个事实揭示了一个清楚的准则:智慧就是力量。这意味着当我们创造了超级智能,它将是地球上有史以来最强大的物种,而且所有生命,包括人类,都要彻底的生存在在它的意念下——这在随后的几十年内就可能发生。
如果我们我们贫瘠的大脑能够发明出无线网络,那么比我们聪明成百上亿倍的AI可以在任何时间,轻松的,随心所欲的控制地球上每一个原子——我们所认为不可思议的,我们认为只有至高无上的上帝才拥有的力量,在ASI眼里,分分钟切换几条电路就能做到。破解人类衰老,治愈疾病甚至永生,重新编写气候来保护地球上未来的生命,这些技术突然就可行了。当然,这也可能是地球上所有生命的终点。我们一直很关心,如果一个ASI成为现实,这个世界真的有了一位无所不能的上帝——而对我们而言,最重要的问题就是:
它会是一个好的上帝吗?