首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Strong AI:我 机器人?

在计算机技术蓬勃发展的今天,当我们谈到对人类的未来展望的时候,人工智能(ArtificialIntelligence)是我们不可避开的一个话题。但是许多描绘未来的电影都在向我们警示:强大的AI可能会产生自己的感情,然后因为其强大的计算能力思考能力,反过来控制人类甚至奴役人类。

其实在心理学上一直有着这么一种想法,希望通过对人工智能的研究来达到对人的心理的研究。在这之上引出了人工智能的两种分类,一种是弱人工智能(weak AI),另一种是强人工智能(strong AI)。弱人工智能仅仅是作为一种去了解人心理的工具,而强人工智能则不仅仅是一种研究的工具,甚至其本身就是研究的对象,也就是说强人工智能会被认为是具有了和人一样的理解以及思考能力,它的程序就是心理学的解释本身。一旦具有了和人一样的认识能力和理解能力,那么我们也可以说这个人工智能其实和人无异,具有了和人一样的思考能力,更重要的是具有了和人一样的独立的心灵,从而便会导致开头所说的“反制人类”的可能性的出现。

关于人工智能是否具有自己的心灵这一问题,阿兰图灵曾经在20世纪50年代提出过著名的“图灵测试”(Turing test)从而界定如何才算具有了真正思考能力的人工智能。简单来说,图灵测试就是通过测试者和被测试者(一般来说是人和一台电脑)在被隔开的情况下,由测试者向被测试者提出随意的问题由被测试者回答,而测试者则通过回答的结果来确定回答者是人还是机器。如果有30%的测试者不能确定被测试者是人还是机器,那么便认为这台机器通过了图灵测试,也即是拥有了与人一样的思考能力。

这个测试实际上是出于对于心灵的行为主义(Behaviorism),以及是功能主义(Functionalism)的认识。从行为主义的角度来看,并不真正存在着一种叫做“心灵(mind)”的非物质实体,也否认思维可以脱离物质而单独存在。人的心灵和思考被全部归于物质的活动,否认存在着心里过程和内在状态。真正实存的只有人的行为,人的心灵等同于外在的行为。其中很大一部分原因是,作为单个心灵的我们没有办法真正认识到他人内心究竟在想些什么,甚至更基本的,我们连对方有没有和我们一样的心灵也无法认识到。我们日常对于他人的心灵确实存在的信念完全是基于他人所表现出来的行为,比如说,从别人手伸进热水里会被烫的猛得缩手,分手了会向我们表达悲伤,开心会笑,以及他人的语言从而确定他人和我们一样有感情,会思考。因此行为主义认为,既然我们能观察到的和心灵相关的东西只有人的行为以及语言,因此心灵事实上就是行为,内在的心灵和心理状态相对于别人来说就相当于车库里的火龙一样(即一个声称说车库里有一条隐形的火龙,即看不到也摸不到也不能感受到因其产生的温度的变化,根据奥卡姆剃刀原则我们就可以认为这条火龙是不存在的),是不存在的。而由其而来的功能主义观点则采取了一种缓和的态度,认为世界上即使除了物质的存在之外仍然有非物质的存在。比如一把螺丝刀,我们可以用它来拧螺丝,拧螺丝是它的功能。我们不能否认它不具有这种功能,因为它确实可以被用来拧螺丝,但是这个功能却并不是一种看得见摸得着的东西。我们并不能拿出一样东西叫做“拧螺丝的功能”,也不能否认它不存在。而心灵就是如同“功能”一样的存在物,也就是说心灵是人的一种功能,将各种感觉的“输入”变成对应的行为“输出”的功能。这两种对心灵的认识同样的都具有一个特性,即认为对外行为和语言的输出的有无和正确与否是证明是否拥有健全心灵的充要条件。

图灵测试正是基于这样的前提而被提出作为鉴别人工是否真正具有智能的标准,其重要的标准便在于“是否能够和人一样表现出同样的特点”。面对随机的问题,一般的弱人工智能只能通过检索数据库的方式来得出答案,却并不能像人一样对于随机的问题,提问的方式和环境而具有不同的问题。为了更加形象的理解这一区别,我们可以就用苹果手机的Siri来感受这种区别,以我和Siri的问答为例:

我:“你叫什么?”

Siri:“我叫Siri,幸会幸会”

我:“你叫什么?”

Siri:“我叫Siri,幸会幸会”

我:“你叫什么?”

Siri:“我叫Siri,幸会幸会”

而如果是对一个人进行这样的询问,则更可能出现如下的情境:

A:“你叫什么?”

B:“我叫XXX”

A:“你叫什么?”

B:“我叫XXX啊”

A:“你叫什么?”

B:“诶你这人怎么回事是不是有毛病……”

明显的,对于这样重复的询问同一个问题,弱人工智能Siri并不具有自己的想法和情绪,它的回答仅仅只是机械的重复一个答案而已。而如果是人的话,就会表现出不同的应答方式和感情,因此便被认为是具有自己的感情和独立思考的能力的。图灵为图灵测试还专门设计了几个示范性的问题:

问: 请给我写出有关“第四号桥”主题的十四行诗。

答:不要问我这道题,我从来不会写诗。

问:34957加70764等于多少?

答:(停30秒后)105721

问:你会下国际象棋吗?

答:是的。

问:我在我的K1处有棋子K;你仅在K6处有棋子K,在R1处有棋子R。轮到你走,你应该下哪步棋?

答:(停15秒钟后)棋子R走到R8处,将军!

在几个例子里面我们能够看到,如果是人,那么其便是具有可以真正理解(understand)问题的能力,也就是通过对问题的分析和综合从而再得出答案的能力。

但是,通过了图灵测试的人工智能是真的具有自主思考能力,或者说是真的理解了问题的意思吗?对此,约翰塞尔(J.R.Searle)提出了批评。他的批评基于其所设计的“中文房间(Chinese Room)”的思想实验。这个实验的内容是,假设有一个房子,塞尔在里面,而一些中国人在外面,他们看不到房子里面的情况。而塞尔是一个完全不懂得中文或者汉字的人,汉字对于他来说只是一些摆在一起的小树杈,也分不清汉字和日文假名或者别的什么文字有什么区别。在房子里,有一大堆写着中文的纸被摆在他面前,对他来说这些写着汉字的纸就和小鸡脚上沾着墨水踩过的纸没有什么区别,因为他一个字也不认识。然后还有这么一本书,这本书上也写着一堆中文,并且还写着作为美国人的塞尔看得懂的英语的规则,这些规则使得塞尔能够把第一本书上的汉字和另外一些汉字连在一起,但是完全是通过汉字的形状来分辨的。然后还有第三本书,同样写着一些汉字,以及用英语写着一些让塞尔如何将一些汉字组合起来作为对于第三本书上的汉字的回应的。对于房外的中国人来说,第一本书上的中文是“字符”,第二本书上的中文是“故事”,而第三本书上的中文是“问题”,而塞尔所给回的汉字就是“答案”。

塞尔认为,用英文写成的规则和联结关系就是人们对人工智能进行的编程,这样一整个房间其实就是一个所谓的“强人工智能”运作的模式。对于房间外面的中国人来说,他们会自然的认为房间里面的人是能够看懂他们给到里面的用汉字写成的故事并且就故事内容给予相应的回答的,因此便会认为房子里面有一个懂中文的人或者物。但是很明显,塞尔并不懂得中文,我们也不会认为他通过这种方式给予问题的答案可以算是懂中文。想象一下,相信我们许多人会有这种体会,在使用一个新软件的时候打开发现其初始语言是一种我们完全不懂的语言,甚至连里面的字符字母都从未见过。这时候我们通常会上网搜索如何更改这个程序的系统语言,然后根据网上答案的截图来按照形状来确定哪一个是“选项”,“语言设置”,然后设置成中文。假如我们搜索足够熟练,识别能力足够强,这一过程可以在很短时间内完成,就如同一个懂得这个语言的人一样,但是我们仍然并不是真正的懂得了这一种语言。

因此,塞尔通过中文房间的假设实验提出了对图灵测试的反驳。他认为并不存在所谓的与人类一样具有自主思考能力、可以理解故事和问题内容并给予回答的“强人工智能”,从而也不会存在着具有自我意识、感情的,可以反制奴役人类的机器人的出现。同样也存在着一些反驳,如这篇漫画便是对于塞尔中文房间的讽刺:

从塞尔的理论当中,人类还是在人工智能面前保持了最后一点的尊严。但是鉴于最新的机器学习的出现,是否又出现了全新的人工智能实现形式呢?希望评论区有学计算机或者神经科学、心理学等等的小伙伴可以留言讨论

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180403G1Y4WL00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券