首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI会拥有自我意识吗?

17/9/2018

关于未来的人工智能能否拥有自我意识众说纷纭,但对于现在市面上普遍存在的弱人工智能来说,这个问题的答案却是无需争辩的——肯定没有。

文|王垚

编辑|李杰

今年五月,一向以剧本见长Quantic Dream工作室时隔五年终于推出了他们的全新力作——《底特律:变人》。这是一部交互式电影,通过波澜起伏的剧情与细致入微的角色心理刻画,描绘出了一个人类与机器人共同生活的底特律。

《底特律》游戏主线剧情主要围绕着三个主要角色展开,他们分别是家政型机器人卡菈,机器人革命的领导者马库斯,以及侦探型机器人康纳,三位主角各自所对应的主旨也各不相同。

(图从左往右以此为卡菈,马库斯,康纳)

卡拉守护着脉脉亲情,马库斯向往着平等与自由,康纳则在调查异常仿生人的过程中逐渐产生动摇。相同的是,所有的选择均取决于这些产生了自我意识的人工智能自身的意志,而非某些早已经被写入程序中的固定算法(屏幕后的玩家们笑而不语)。

也正因为拥有了自我意识并可以独立思考解决问题,才让《底特律》中仿照着人类设计的仿生人们在摘下了额头上表明情绪的呼吸灯之后,无论在外观上还是在思想上都表现得与普通人类别无二致,并可以承担人类一切的工作。

对于这样的AI我们可以称之为强人工智能,而我们现在正处在一个充斥着弱人工智能的世界,“强”与“弱”,虽一字之差,却又有着天壤之别。

在游戏开场时,Quantic Dream工作室便将这样一幕呈现在了玩家们的眼前:工厂里,一名工程师试着同一个正在拼装的仿生人进行着最基本的问答以测试其性能。无论是回答自身的型号与用途,还是歌唱多种语言的歌曲,这些对于身为科技结晶的AI来说都不在话下。

可在被人类评论为一件商品、一台拥有着手脚的电脑时,之前还对答如流的AI却突然沉默了片刻,小声呢喃道“对不起,我还以为我是活着的”。这一句话让测试人员意识到眼前的AI程序发生异常并诞生了自我意识,需要肢解拆毁,但最终还是因为AI的苦苦哀求而心软了下来,放任其进入了市场,否则玩家们就见不到卡菈小姐姐了。

事实也正如开场动画里所表现的这样,自从上个世纪五十年代起,人们就习惯性地通过类似的图灵测试来判断一款AI是否具备人类的智能,拥有独立思考能力与自我意识了。即由测试者向被测试者提出任意问题,如果有超过30%的人认为回答自己问题的是另一个人而非AI则判定为测试通过,该AI被认为拥有意识以及思考能力。

近些年来随着人工智能领域的大火,有许多AI纷纷宣布通过了图灵测试,号称拥有了人类的智能,那是否能够说明现如今的人工智能已经开始拥有自我意识了呢?答案自然是否定的。

首先,现如今市面上的人工智能早已经涉及了教育、医疗、金融、物流等多个领域,用只局限在语言智能等特定领域内的图灵测试来作为判断所有AI的智能显然有失偏颇。其次王飞跃博士在“关于人工智能的九个问题”中就曾如此评价图灵测试:就像是IQ测试从未被当作判断人类智能的标准一样,图灵测试也从未被当做判断人工智能的标准。

以有史以来首次通过了图灵测试的“尤金·古斯特曼”为例,它并非是一台超级计算机,甚至连计算机都不是,仅仅只是一个聊天软件而已,却通过扮演了一个第二外语为英语的13岁男孩而成功通过了测验,这两点本身就更进一步地降低了测试的难度——在做出许多错误回答时裁判都误认为他是因为年龄小而非缺乏人性。

尤金·古斯特曼的开发者所做的只是努力让程序骗过人类,而并非研制出智能上接近人类的机器,这种舍本逐末的做法本身就毫无意义,我们当然不能因此便认为它拥有了人类的智能,否则那将是对我们自身智力的一种否定。

好在它的开发者弗拉基米尔·维西罗夫对此也心知肚明,他曾表示“我们希望借此激发出人们对人工智能以及聊天机器人的兴趣”,只不过如今那些时常见诸报端的,号称自己研发的AI通过了图灵测试的人是否有这样的自觉就有待商榷了。

“你可以在某些时间内欺骗所有人,也可以在所有时间欺骗某些人,但无法在所有时间欺骗所有人”,从某种意义上来说,用这句话来否定新闻中那些,为了博人眼球而声称自己所研发的AI通过了“图灵测试”的人时,恰到好处。

图灵本人所定义的图灵测试中的人类考官应该是以广义的人类做个为整体,而并非一个带着特定问题的特殊人群,测试的时间段也不是具体的一段时间而应是广义的时间段。简单来说就是要在所有的时间段内让所有人都分辨不出人与机器才算是通过了测试,而非仅仅通过一次简单的测试。

因此我们可以断言,现阶段所有声称通过了图灵测试的AI都是不及格,它们并非拥有了自我意识以及独立思考的能力,只是依照事先写好算法去处理相应问题的弱人工智能,不过是工具而已。

就好像哪怕阿法狗通过强化学习在围棋的领域表现再怎么超凡入圣,也不会处理围棋之外的其他问题,更不会因为自己战胜了人类的世界冠军而沾沾自喜一样。

那么问题来了,作为一款不太硬的科幻作品,《底特律:变人》中的强人工智能或者说仿生人是如何觉醒出自我意识的呢?又能否为人工智能的研究提供一个方向呢?这就要从剧情说起了。

游戏中三位仿生人主角之一的康纳有着这样一个绰号——冷酷无情康纳酱。“冷酷无情”与“酱”这个颇有点可爱风格的爱称并列放在一起,乍一看两者间确实有些矛盾,却也正是对一直在温暖的人性与冰冷的程序之间摇摆不定的康纳的最贴切评价。

(左为康纳,右为汉克)

在亲手击杀仿生人同类时,他可以无动于衷;在汉克家门前得不到回应时,他可以固执地一直按下门铃;在汉克和他开玩笑时,他并不理解其中真正的含义。然而在无聊的时候,他也会不自觉地玩起硬币。在被枪击时,他也可以主动挡在汉克的面前。

不同于在游戏前半部分便早已经觉醒出了自我意识,并且明确地知道自己应该去做些什么的马库斯与卡菈,康纳在游戏全过程中都在矛盾地成长着。前两者的矛盾主要来源于外部压力,矛盾最为尖锐的康纳却来源于自身。

从一开始拯救被异常仿生人挟持的小女孩,到后来和汉克一起在楼宇之间追逐异常仿生人,再到最后看着马库斯站在台上演讲,康纳始终在纯粹的机械般的理性与感性之间徘徊着。当一面是即将坠楼的搭档汉克,另一面是正在逃跑的嫌犯时,作为玩家的我们可以选择出于友情去救助同伴汉克,也可以选择出于优先完成任务的理性去追击逃犯。

这两种截然不同的选择本身就代表着康纳作为强人工智能自身所具有的一种矛盾,而这些矛盾中所出现的选择,正符合了朱利安·杰恩斯在1976年出版的《二分心智的崩塌:人类意识的起源》一书所提出的二分心智理论。这一理论早在美剧《西部世界》中便被提及过,在《底特律》中也依旧适用。

根据二分心智理论的阐述,人类自大约3000年前才拥有完全的自我意识,在那之前每当遇到困境,一个半脑就会听到来自另一个半脑的指引,这种指引被称为神的声音。但随着人类社会的日益复杂,二分心智也逐渐崩塌,并最终使人类产生了完全的自我意识,去应对更加复杂而艰难的人生。

而游戏中康纳自我意识的觉醒正是依照着这个步骤。当幕布随着游戏的进展不断被揭开,玩家们会知道剧情中给康纳下达命令的阿曼妲不过是一段程序,而阿曼妲的言语之于康纳无疑就是那个指引着他的神的声音。

阿曼妲始终命令着他去做身为一个仿生人应该做的事,去追捕并调查那些觉醒了自我意识,所谓的“异常仿生人”们,但当剧情逐渐变得复杂,康纳的内在矛盾冲突逐渐变得越发激烈之后,他最终摆脱了阿曼妲(程序)的命令。

当阿曼妲(程序)的声音消失后,二分心智也随之分崩离析,身为仿生人的康纳完全的自我意识由此诞生。他不再听从命令,选择去帮助马库斯,去帮助耶利哥,去帮助自己的同伴们获得自由与尊重,这正是自我意识的体现,也符合了杰恩斯的理论。

这一切看似顺理成章,不过这就好像是日漫中常见的高达一样,人们只能看到树冠却完全不明白这条科技树是怎么点出来的。二分心智终究只是理解人类思想产生的一种理论,目前来看并不具备太大的参考价值,也不能以此作为蓝图去构建拥有自我意识的人工智能。

《底特律:变人》中,康纳自我意识的不断完全源自于二分心智的崩塌,而所有人工智能自我意识诞生的契机则都源自于一个小小的BUG,现实世界中BUG显然不是一个那么美好的东西,不然广大程序员们也就不会去拜专治八阿哥的雍正了。

不过即便没有如此便利的BUG,人类在追求强人工智能的道路上也没有停下过脚步。

工欲善其事必先利其器,要想制造出能像人类一样能够独立思考的强人工智能,运算速度至少也应当等同于人脑水平的硬件不可或缺。人脑的计算速度并非难以企及,我国的天河二号早已经超过了那个标准,然而两者的体积与能耗却远远不在一个量级上。

如果仅仅只将成功研制出一个强人工智能而非普及作为条件的话,超计算机作为硬件勉强合格了,但真正的难点在于软件,在于克服框架问题与符号奠基问题,让人工智能真正地像人类一样去思考。

关于强人工智能的开发,目前有三种主流做法。一是模仿人类的大脑,通过逆向工程研究出人类大脑的运作模式并将之运用到人工智能上去。二是模仿生物自然演化的过程,通过模拟演化的方法制造出更强的人工智能。三则是让电脑自己来解决这些问题,建造一个能同时处理两个问题的超级计算机,使其一边研究人工智能一边修复自身的代码。

这些都是专业Ph.D们的工作了,现在大学里面,包括机械系、电子系、计算机系甚至哲学系在内大家都在坚称自己在研究人工智能。某种意义上来说,人工智能确实是个人见人爱的香饽饽。

而在关于强人工智能是否会拥有自我意识这一点上,自人工智能诞生以来便是众说纷纭。

有相当一部分人认为,哪怕人类再怎么钻研也无法制造出能够独立思考的强人工智能,所谓的人工智能不过是在储存、调取和模仿罢了,其中比较著名的便是约翰·希尔勒。它曾在1980年创造了“中文屋”思想实验。

即他作为一个完全不懂中文的人被关在一个小房间里,仅能通过纸条与外界交流,但凭借着中英文翻译字典他可以理解外面人的意思并将自己的观点表述成中文传递出去,由此制造出一个屋外的人认为屋内的人懂得中文的假象。

约翰·希尔勒通过这么一个简单的例子来类比机器不过是看起来像是在思考,实际上并不具备独立思考以及自我意识,依旧只是在运行着既定程序而已。不过这种说法本身也存在着漏洞,毕竟在实际操作过程中,人们还是能够通过语法、修辞等细节轻松地判断出屋子里的人究竟懂不懂中文,这个例子将翻译这个过程表述的太过简单了。

另一方面,包括比尔·盖茨、马斯克、霍金在内许多大佬都曾提出过“人工智能威胁论”,而他们在提出这种观点的同时本身大多默认了一个前提:未来的强人工智能是能够拥有自我意识的。这一观点的拥趸同样不在少数。

有一种观点认为,人类的大脑主要由简单的神经细胞组成,从功能上来说它们能做的不过只是感受刺激,以及释放化学物质来传递兴奋而已,然而当140亿个神经细胞组合在一起之后人类也便拥有了智慧。

那么对于机械来说,大量同样简单的计算单元排列起来形成矩阵之后,自然也就模拟出了智能。既然拥有着类似的构造,机械也同样可以像生物的大脑一样成为意识的载体。不过真想要实现这些不仅要突破在量子计算机领域的壁垒,还要将人脑的运行方式理解透彻才行。

子曰:“未知生,焉知死”,现阶段人类对于自身神经元的机理和神经网络的运行方式了解的都尚不透彻,连人类的意识是如何诞生的都没有确切定论,就更别提去判断强人工智能是否会拥有意识了。不过对于现在市面上普遍存在的弱人工智能来说,这个问题的答案却是无需争辩的——一定没有。

鹿鸣财经|原创平台

洞悉互联网,只玩最真实的

佳作导读链接

合作、转载、爆料、报道请扫↓二维码:

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180917G1YSEC00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券