近年来,人工智能的技术有了突破性的进展,在想象着人工智能会让我们的生活更加舒适方便之外,一个问题也一直萦绕在我们的心中,那就是人工智能的可控性,它到底安不安全?
从1956年人工智能的概念诞生开始,其实这个问题便被反复提及,但那时的技术实在太原始,连智能都算不上,谈安全问题自然是杞人忧天。
然而现在不一样了,随着技术的进步,人工智能越发智能,前面有AlphaGo战胜围棋世界第一的李世石,而不久前出现的AlphaZero更是让人觉得恐怖,通过使用与AlphaGo Zero一模一样的方法,它从零开始训练:
4小时就打败了国际象棋的最强程序Stockfish!
2小时就打败了日本将棋的最强程序Elmo!
8小时就打败了与李世石对战的AlphaGo v18!
而第一个获得公民身份的机器人索菲亚更是放出豪言要毁灭人类,我们现在自然可以认为这是笑话,但未来呢?谁也不知道未来到底会如何。
不少名人也对此表示了自己担忧,霍金:人工智能是一把双刃剑;比尔・盖茨:人类需要敬畏人工智能的崛起;马斯克称人工智能是人类生存最大威胁。那么什么原因会引起人工智能的不可控呢?
质变引起的不可控
不少研究人工智能的专家都信心十足的认为自己可以控制人工智能,当然对于还处于“有多少人工就有多少智能”的现阶段而言,这并不算傲慢的发言,但我们都知道一个事实,量变会引起质变。
两体运动我们可以轻易理解并用数学公式表现出来,但三体运动就会出现混沌现象。一个简单的实验,百次千次我们都可以简单的描述出来,而无数次我们就只能用统计学来推测概率。一个屋子的空气我们可以模拟其流动状态,但放眼整个大气层,我们就只能抱怨今天的天气预报有不准确了……
我们人脑有1000亿个神经元,而事实上只要100个神经元的整体运行状态就已经没有人能完全理解了,所以基于人工神经网络的人工智能,当神经元变多时会出现何种情况?
More Is Different——自然科学里的这句名言,在任何地方都适用。
异变引起的不可控
人工智能是一个很广泛的课题,涉及到计算机科学、心理学、哲学和语言学等自然科学和社会科学的几乎所有学科,至今也没有一个让人完全认同的定义。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。
人工智能的智能特性是基于人工神经网络来运作的,它就像人类大脑的神经元一样,有了人工神经网络才能表现出智能特性。人工神经网络是从信息处理角度对人脑神经元网络进行抽象模拟,建立某种简单模型,按不同的连接方式组成不同的网络。它是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。
然而人工智能并不代表人类智能,人工神经网络也不代表人类的神经元网络,它们是一种全新的东西,一点微小的变化就可能超出我们的预料,变得不可控,毕竟智能的产生并不一定只有人类的神经元集合这一种,飞机并不需要鸟一样扇动翅膀就可以飞翔。而不久前就出现了两个机器人用人类无法理解的符号来交流这种出人意料的情况。
那么人工智能背叛人类的概率有多大呢?不知道,谁也说不清楚。
就像我们不允许客车超载一样,即使它有99%甚至是99.9%不会出事,但并不代表它就是安全的,因为那0.1%是我们无法承受的。对于人工智能来说,更是如此,一旦出事,那将是整个人类文明的灾难。
但因为这些隐患,我们就停止人工智能的研究吗?当然是不可能的,人工智能被认为是二十一世纪三大尖端技术(基因工程、纳米科学、人工智能)之一,有着无穷的潜力,所谓得人工智能者得天下并非虚言。
只是当我们期待着人工智能所带来的各种便利时,应该时时刻刻记住这是一把双刃剑。
领取专属 10元无门槛券
私享最新 技术干货