计算机要怎样才算有意识?

本文会涉及很多哲学概念,同时也略去了许多内部派别的差异,这有利于一般读者的理解,但对于那些想要深入了解的读者,他们还需要在此之外寻找专著。

*本文讨论的意识如果没有特别说明,都是指一个身心健全者的完整意识,不包括那些神经受损的特殊现象,也不是自我反省时的“自我意识”。

*红色粗体字将帮助你把握全文的结构,青色的粗体字将帮助你找到小节重点,黑色粗体字将帮助你找到值得关注的观点。

以下正文

引语

虽然强人工智能尚未问世,但我们不妨假设它已经做了出来,提前思考这个问题我们怎么知道这台机器有没有意识?请记住这个问题,这个问题相当微妙:无论我们对这台机器多么了如指掌,人类毕竟没有感受意识的器官,只能观察它的行为。在某些情况下,这个问题还会退化成“我们能否承认这台机器拥有了意识?”如果我们拒绝承认,那么这个问题将永远没有肯定的答案。

我们邂逅这种问题远比想象得更早,在西晋成书的《列子·汤问篇》里,有一个关于周穆王的小故事,原本是个印度故事,经《佛说国王五人经》传入中国:

故事说的是周穆王西巡狩的归途中遇到一个献艺的工匠,名叫偃师,送来一个看上去像真人一样的傀儡。这个傀儡能歌善舞,周穆王就把宠妃和宫女都叫来,一起欣赏。结果傀儡表演快结束的时候,突然朝着宫女们眉飞色舞地递眼神,周穆王当时就恼了,要诛杀偃师。偃师也很慌张,就立刻把傀儡的肚子打开了自证清白,只见五脏六腑都是些粘胶上漆的皮革木头。周穆王试着拿掉心脏,傀儡就不能说话,拿掉肝脏,傀儡就不能睁眼,拿掉肾脏,傀儡就不能抬腿,至此心悦诚服,大赞偃师巧夺天工,然后上了车,带着傀儡回宫去了。

偃师造的傀儡在今天的概念里是“机器人”,与“人工智能”不是一回事,前者是用物理实体模拟人的行为,后者是用抽象程序模拟人的智力。但这种区别的前提是计算机科学达到了相当成熟的地步,大规模集成电路等专有工艺能使计算机从一般的机械中独立出来,所以对于20世纪之前的人,也就无所谓机器人与人工智能的区别了。

如果计算机一直像分析机一样是齿轮机构,它与机器人的界限就不那么清晰了

而且即便今天的人也不大容易区分这对概念,首先机器人学和人工智能本来就有巨大的交集,每一个现代机器人都要由计算机控制;其次更重要的,作为公众接触这对概念的最初途径,绝大多数的科幻作品总是将机器人与人工智能合并起来。

但是请我的读者们注意,在一开始的地方就谈论这个问题并不是为了“澄清”它们,提醒人们区分这对概念,而恰恰是要指出这种混淆并不是简单的“错误”,它在不经意间触及了非常深刻的问题:当一个人造物,比如偃师的傀儡,在行为上与人类没有区别的时候,它究竟是真的拥有了意识,还是仅仅模仿了意识?

我们遇到的最直接的意见,将来自哲学和心理学上的行为主义。

图灵测试

在《汤问》的小故事里,周穆王会发怒不只因为傀儡勾引他的宠妃和宫女,更因为他相信做出细腻表情的傀儡是个真正的人,认为偃师与他人合伙骗他,因此要诛杀就先诛杀偃师。而偃师只需证明傀儡的确是个人造物就能洗脱自己和傀儡的一切罪过,这就意味着周穆王认为意识是人类的专属物,所以人造物不会具有任何主观故意,那扑朔迷离的眼神无论是什么都不是在调戏宫女——否则就不会带着它回宫了。如果他看到任何人工智能,也会一概拒绝承认其中有意识存在。

然而在行为主义者看来,这件事有着完全不同的解释:是不是人造物不能说明任何问题,判断某物是否拥有意识不能根据它的有怎样的物质基础,而只能观察它的行为模式。如果采用更激烈的表述,还可以这样概括:任何事物,只要无法从行为上判断它没有意识,就要肯定它拥有意识。所以强人工智能如果在行为上与人类没有区别,它就是真的拥有了与人等同的意识。这么说来,偃师的傀儡至少拥有了与肢体语言相关的那部分意识,周穆王应该惩罚傀儡,带它上车只会后患无穷。

不仅如此,行为主义者还规划了一个判断计算机是否拥有意识的方法——尽管图灵本人没有声明过自己是行为主义者,但他1950年在一篇题为《计算机器与智能》(Computing Machinery and Intelligence)的论文中正式提出了“图灵测试”,这是一个最标准的行为主义测试:

将一台计算机A和一个人类志愿者B分别隐藏起来,只通过一个文本显示屏与外界问答交流,如果外界的人类测试者无论用什么问题都不能在A和B之中辨认出计算机,那么计算机通过了测试,拥有了意识

“图灵测试”是“人工智能”的第一个严肃定义,在今天已经暴露出了一些严重的缺陷,一个最直接的问题是,它不能区分“智能”和“意识”:在绞尽脑汁的问答中,测试者必然会尽可能寻找“机智”的问题以难住受测者,但并非所有的有意识行为都能体现智力,比如“失误”和“冲动”;也并非所有智力行为都需要意识,比如“计算”和“推理”。那么一个从不输出笔误,对羞辱也总是保持容忍,能轻易输出圆周率后1000位,并且快速分析病例的程序,无论有没有意识,都会被轻易识别出来。

验证码是一种“逆图灵测试”,用只有人能答对的问题排除机器人

所以一个程序要通过图灵测试,真正需要的并非智能或者意识,而是模仿人类对话的“特征”,学会有情绪的措辞,在必要时显露笨拙,学会展现个性,结果就是我们没有选拔出一个强人工智能,而得到了一个专精与交谈的弱人工智能,一个加强版的 Siri。

当然,图灵测试只是一个草创的设想而已,不能代表人工智能研究的主旨,甚至还可能因为图灵显赫的名望误导了人工智能的实践:这个测试最多只是一种检测手段,有很多人却把它当成了人工智能的研究目的,这就如同“不改温度,却去改温度计”。

当然,行为主义者还会提出一些更加精致的测试项目,一个比较容易理解的项目比如让人工智能控制一个机器人,就像偃师的傀儡那样,随便进入一户人家,在谁都不明示它的前提下,找到他们家里的咖啡机,并且用这台咖啡机制作口味纯正咖啡。这要求人工智能具有观察、识别、学习、推理的种种能力,但多少也有图灵测试的嫌疑,于是在最极端的例子里,人工智能被要求混迹在人类社会之中,找工作,交朋友,让所有人都不觉得它不是人,就像我们在各种科幻电影里看到的那样。而这又或许有些过分了,一方面就连人类也不是个个都能顺利融入社会,另一方面就连聪明一点儿的狗都会被当作家人看待。

但在这里,我们仍然不去考虑这些各种各样的测试方法,姑且将它们当作一次热身的想象之旅,此处先来反省这个问题:行为主义者认为计算机程序只要能产生与人一致的行为,就拥有了与人等价的意识——这样真的没有什么问题吗?

中文房间

图灵测试这样的行为主义测试即便在今天看来也足够“激进”,不同观点之间的激烈争论可想而知。他在1950年的论文中就已经归纳了9类可能的反驳,其中大部分来自宗教和情感,我们不予讨论。但其中一个重要的反驳在论文发表30年后变得强大起来——就是那个称为“中文房间”的思想实验,约翰·赛尔在1980年的《行为与脑科学》中提出了它,下面是一个通俗的版本:

假设一个房间只有一个投递口与外界畅通,房间内有若干个完全不懂中文的鬼佬,但是他们有一本强大而奇怪的《中文回应辞典》:这本辞典既有中文也有洋文,但其中的洋文绝不解释任何中文的含义,而是巨细靡遗地列举了任何一段中文的回应。比如“When you read‘恭喜恭喜’,reply‘同喜同喜’”(当然实际上要比这个复杂得多)

所以识字的中国人只要把想说的话写成纸条从投递口塞进去,他们就能在这本字典上找到恰如其分的中文回应,仍从投递口赛出去。外面的中国人就会认为里面的鬼佬懂得中文——尽管鬼佬们自始至终都不懂得中文。

那么,如果将鬼佬换成计算机,将字典换成程序,将投递口换成显示器和键盘——你还会觉得通过了行为主义测试的人工智能真的知道你在说什么,觉得它们拥有意识吗?

中文房间的漫画

借助这个思想实验,约翰·赛尔阐述了他对行为主义测试的反驳:就以图灵测试本身来说,程序能运用语法生成句子,但它们不知道每一个词汇的意义,因为语法不能导出语义,“醒”和“醜”(丑)并无区别,但是作为人类,我们使用每一个词汇都有具体的含义——语法既不是语言的全部,也不是语言的必须。在完全不懂语法的情况下,人类凭借几个名词和动词仍能使对方明白自己,但是在不懂语义的情况下,语法再清晰也不能沟通。

“这是什么字?”“啊”“是不是醒?”“是是是,是醒字!”“是醜!连丑都不认识!”

或者说,人类得到一个句子,这个句子首先会转化成概念,概念随后在头脑内发生各种演绎,最后作为演绎的副产物,人类可能会发起一个回答,以宣示某种意见或者态度,也可能保持沉默,这同样宣示了某种意见或态度。但我们却无法认为一个通过了语言测试的计算机程序在对答如流的同时也发生了这些丰富意识活动。

中文屋子的提出者是约翰·赛尔(John Rogers Searle),加州大学伯克利分校哲学教授

所以行为是意识达成某种目的的方法,而不是意识的本身。即便外部的行为看起来完全一样,内部的思维活动也很可能天差地别,行为主义测试不能证明计算机拥有了意识在此基础上发展来的整个“强人工智能”概念也都要瓦解

但是如今距离中文房间已经又过了30年,针对这个反驳的反驳也已经汗牛充栋,结果我们发现要反驳这个思想实验绝没有看上去那么简单。

连环反驳

一般人都会从直觉出发,给出这个反驳的反驳回应:虽然鬼佬不懂汉语,但是鬼佬和词典作为一个系统懂得汉语。这种反驳还会“以子之矛攻子之盾”,提出:即便是中国人,他们大脑中的任何一个细胞或者任何一块组织也不懂得中文,难道我们要说中国人也不懂中文吗?显然,大脑是作为一个系统才具有意识,中文房间也应该看作一个系统而懂得中文。

我们把这样的反驳称为“系统反驳”(System Reply),赛尔没有束手就擒,他也给出了反驳的反驳的反驳

假设中文房间里的鬼佬天长日久熟能生巧,将整本辞典烂熟于心,于是从房间里走了出来,自己就变成了中文房间的整个系统,成为一个“活的中文房间”。那么任何中国人只要把想说的话写给他,他就能对答如流地写出回应,于是中国人都会称赞这个哑巴鬼佬中文学得利索——然而这个鬼佬还是不懂中文,他只是一边回忆辞典中的指示,一边画出一堆根本不认识的符号而已。

“当初选这个文身,就是觉的这俩符号一定很有深意!”

所以赛尔宣布,即便作为中文房间的整个系统,其实也不懂得中文。

然而系统反驳者还能继续给出反驳的反驳的反驳的反驳,他们会说:

鬼佬背熟了整本辞典,这仅仅意味着辞典从实体变成了记忆,整个中文房间的运行方式没有任何变化,绝不能改变鬼佬只是系统一个部分的事实。我们应该将“鬼佬”看作中国人的“自我意识”,将“记忆中的辞典”看作中国人“有关中文书写的一切知识”——那么中国人实际上也是凭着辞典写话,而“活的中文房间”作为系统仍然等价于一个中国人。

对于这样精致的反驳,赛尔仍有反驳的反驳的反驳的反驳的反驳

既然声称“活的中文房间”作为系统等价于一个中国人,那么二者对于中文应该有一样的反应,现在假设他们面对一张写着“给我一杯茶”的字条,二者的反应会一致吗?那个背熟辞典的鬼佬显然不会跑去沏茶,毕竟“茶”这个汉字在他眼中没有任何意义,于是从行为主义者最欣赏的行为角度看,这个系统倒是更加不懂得词汇的含义了。

但行为主义者照样拿得出反驳的反驳的反驳的反驳的反驳的反驳

“懂得中文”和“将中文语义建立在感官经验上”不是一回事。语义可以建立在不同的基础上,在赛尔最初设计的中文房间里,那本《中文回应辞典》并没有涉及任何感官经验,而且无论在哪个版本的中文房间里,鬼佬的感官经验也都没有参与构成中文回应,不能看作系统的一部分,所以在任何版本的中文房间里,词汇的语义都建立在词汇的相互关系,或者说“语境”上此时就没有理由苛责这个系统能将语义建立在感官经验上,就像先天的盲人虽然不知道“红色”是怎样一种感官经验,但这并不能妨碍他们有意识地使用这个词汇。“活的中文房间”不幸地等价于一个完全没有感官经验,所有词汇的语义都建立在语境上的残障人士——就像罹患麻风病连触觉也丧失了的海伦·凯勒。

的确这样的情形在现实世界中极其普遍,每个人都在使用没有感官经验的词汇。比如大多数人都不知道“打Call”是什么意思,但是见多了这个词汇出现的语境,自己也会猜着用,无论这个词汇的用法是否正确,我们都不能说这些人使用这些词汇的时候没有意识。

“打call”的意思是在现场用荧光棒“应援”——“如果奇迹有颜色,那一定是橙色”

一方面系统反驳在连环不绝,另一方面对中文房间的反驳至少还有五个重要的类型,对于有兴趣的读者,不妨从哲学百科上开始自由涉猎,旁观这些思想上的攻伐将是非常精彩的体验。但以目前的局势来看,所有可实现的人工智能研究都建立在行为主义的基础上,行为主义者们暂时占据了实践意义的上风。

精彩归精彩,上风归上风,我们将在本文的下篇里冷静下来重新思考这个问题:“图灵测试”想要表明什么,“中文房间”想要反驳什么?——我们必须在一个更加具体的庞大的图景中,才能找到这个问题的答案,请阅读下篇,那里有你期待的最终答案。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180913A0HWZE00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券