首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

丹尼特的《心灵的演化》:两种奇怪的倒置推理

达尔文和图灵是如何打破魔咒的

假设你看到一个水泵,你一定不会认为这个水泵是天然形成的。水泵这种东西,是人为设计出来,实现控制水流功能的工具。

但如果你看到一颗动物心脏,却可以认为没有人刻意设计出了动物心脏。动物心脏是大自然经过亿万年自然选择所设计出来的。

设计者本身是有智能的,而被设计出来的东西就是设计者的智慧结晶。但是达尔文却发现了一个倒置推理:不需要任何智能意图,也能设计出精妙的工具。

由于大多数中国读者在中学都学过演化论,那我也就不多说演化论了。我们重点来看看图灵的贡献。

计算机这个词的英文是computer,但computer最初不是指我们桌子上的那个机器,而是指从事计算工作的人。有点像中国的账房先生。不过英国最初大多是雇佣学过数学的女孩子作为computer,可能是这些女孩子比较细心,不容易算错。

图灵后来想,能不能发明一种机器,让这种机器来实现计算功能,这样那些女孩子不就可以愉快地玩耍了,不用从事枯燥无聊的计算工作了。

我们一般人是理解某个具体的算法的,比如问2+3=?,人们脱口而出5。刚学数学的小孩子会想一想,然后给出答案5。但是计算机本身不理解算法,它只是机械化地执行一系列命令,不过它一样能实现计算效果。

在计算机的发明过程中,图灵和冯诺伊曼可能是功劳最大的两位天才。前者也被名副其实地称之为计算机之父,原因就在于,图灵成功想到了如何把计算这一抽象的思维过程变成具体的机械化过程。如此一来,本来需要学过数学且智力正常的女孩子才能完成的计算任务,可以由一台没有任何智力,只懂得按照指令行动的机器来实现计算功能。

这就是可编程式计算机。程序就是一系列很死板的指令,比如“看到格子里有X就用Y来代替X,然后往右移动一个格子”等等“如果……那么”式语句。执行这一系列条件句,不需要任何智力。

这就是图灵的倒置推理:一个系统本身不需要有任何智能,也能实现计算功能。

这就是丹尼特所说的无需理解的能力。常识会认为,我们必须先理解某个功能背后的理论,然后才能实现这个功能。但丹尼特认为,我们不需要理解,也能实现同样的功能。这其实也是一个教育学上很奇怪的说法。我们送孩子们去读大学,就是希望他们能理解更多复杂的理论,然后就有了更强的能力。但丹尼特认为,这不是必要的。我们完全可以在不理解理论的情况下具备同样强的能力。比如把一些不懂高等数学的孩子送到军队去训练,让他们操作雷达、为舰艇导航,经过一段实习训练,他们就能做得很好。但他们还是不懂雷达和航海导航背后的数学理论。

如果考虑人工智能软件,那么无需理解的能力其实很好理解。下棋软件本身不懂如何下棋,但它的下棋能力比人类这种理解下棋的机器还要强。这也说明了,哪怕没有作为高阶功能的反思理解,某个结构一样能实现令人叹为观止的功能。

人类也正是通过专业分工才实现了今天的文明程度。在专业分工的情况下,我们不需要理解所有的事情,也能具备特定的能力。

本体论和显象图景

本体论是一个哲学术语。问“你的本体论是什么?”就是问“你认为什么东西存在?”。

你认为鬼魂存在吗?你认为原子存在吗?你认为国家存在吗?你认为空气存在吗?你认为桌子存在吗?

人类假定存在的东西多种多样。对于人类来说,“假期”是存在的,因为我们人为地将时间分割为工作期和假期。但对于北极熊来说,不存在“假期”这种东西。同样,对于北极熊来说,国家、原子、桌子都是不存在的。但是雪是存在的。

简言之,对于一个系统来说,凡是其在运作过程中需要假定为存在的东西,就是其本体论承诺。对于一个GPS导航系统来说,必须要预设卫星、电磁波等东西存在。而对于生活在太平洋上某个岛屿的土著人来说,卫星和电磁波都是可以不承诺的存在。

Wilfrid Sellars将人类常识中假定为存在的东西称之为显象图景。常识差不多就是上完小学6年后所知道的那些东西。对于一个12岁的正常小孩来说,其显象图景中有很多东西,比如颜色、彩虹、人、植物、动物、家具、汽车、日落、声音、理发、钱、问题、机会、错误等等。我们和这些东西有互动,可以创造它们,可以爱它们,也可以讨厌它们。

显象图景说的就是人类常识理论中所假定存在的东西,与之相对的叫科学图景。科学图景中只有原子、分子、引力、夸克、暗能量、弦等科学理论所设定存在的东西。

显象图景是所有人的共识,而科学图景仅仅是少数科学家所相信的东西。科学家会说“帮忙把铅笔递给我”,而不是“请将那个物质集移动到另一个时空区域之下”。科学家同时假定常识中存在的东西,也假定普通人不理解的东西。

当代科学的重要任务就是给出一套更精致的科学图景。然而,科学图景和显象图景的差异也变得越来越大,因为大多数人的数学水平很有限,而且就日常生活而言,不需要知道科学图景,也能很好地生存下去。在丹尼特看来,哲学家的任务就是调和科学图景和显象图景之间的矛盾和冲突,这个任务非常难。

电梯的自动化

升降电梯刚发明的时候,是由人来操作的。在电梯箱里,有一个操作员,他来负责开关门,负责电梯往上或往下或停止,负责检查电梯零件是否正常工作,负责检查电梯是否超重。

可以设想一本事无巨细的电梯操作指令,由无数“如果X那么Y”这样的条件句合成。比如,“如果电梯乘客超过10,那么请最后一位乘客出去”,“如果电梯乘客要去的楼层大于目前的楼层,那么操作电梯往上运行”,“如果电梯自上一次检查运行了10个周期,那么检查一次电梯零件的损耗程度”……

程序员朋友们都知道,如果一项任务可以由事无巨细的规则书来描述,那么就可以编写一套自动化的程序来实现整个任务。事实上,电梯生产商们也正是这么做的,他们让程序员设计出了自动化的电梯,不需要人工操作,也能实现同样好甚至更好的功能。比如,自动化电梯中有许多传感器,可以直接记录电梯内的载重,可以记录零件损耗程度,还可以检测门口是否有人以便决定要不要自动关门。

自动化的电梯和生命体有相似之处。比如,我们可以说某个自动化电梯很聪明,它设置了正确的本体论,也就是一系列重要的变量。电梯内的载重n是一个重要的变量,电梯当前的楼层x也是重要的变量,电梯的速度v也是重要变量。而乘客的性别、富裕程度等等,就是不重要的变量。注意,电梯自己并不理解这一系列规则和变量的变化,电梯只是机械化地执行程序操作而已。如果程序编写得好,而且电梯也执行得很好,那么这台电梯就是好电梯,反之就是坏电梯,

对于生命体来说,如果它能维持自身的存活,并且成功地自我复制,那么它就是一个好生命体,繁殖就是糟糕的生命体。对于植物来说,氧气浓度、土壤营养等等,都是重要的变量。如果一个植物能设置很好的本体论,考虑到应该考虑到的所有重要变量,那么这个植物就是一个好植物。这里的“好”和“坏”都是基于目的的评价。不过,植物只是执行那个目的,植物本身不知道自己的目的。

要注意,人类程序员在编程的时候,是带着意图的。人类程序员常常给源代码做出评注,解释自己之所以这么编写,是想要实现什么效果。这样其他人类程序员就能看懂那个源代码,或者这个人类程序员在忘记自己当初写代码的意图后,可以通过评注来想起自己当初为什么要这么写。基因就是所有生命体的源代码,但是基因本身不带任何评注。只有人类可以通过逆向工程的方式,去猜测那些源代码为什么要那样编写。

原子弹和GOFAI的智能设计者

美国是第一个研发出原子弹的国家,而研发原子弹的项目被称之为曼哈顿计划。这个计划大部分在美国田纳西州的橡树岭完成的,最多雇佣了13万人。然而,这却是一个保密计划。

大家可能会觉得奇怪,有13万美国平民被雇佣干活,但其中绝大部分都不知道自己在造原子弹。他们还以为自己在打造飞机零部件。这是为什么呢?

这就是情报系统中常见的按需知情原则。一个系统中执行任务的个体并不需要知道系统的全貌,每个个体只需要知道自己要干什么,要在什么情况下按什么按钮,在什么情况下拉动什么杠杆,就可以了。可以说,每个工人都不需要知道自己在造原子弹,只要整个系统的设计者知道整个过程可以制造原子弹,就足以了。这其实也是无需理解的能力:表现出某种能力的系统本身不需要理解这个能力。

设想整个曼哈顿计划,其中没有一个人理解了整个计划的所有理论细节。工程师理解要造出某块耐高温金属板所需要的理论细节,物理学家理解核裂变反应的理论细节,后勤人员理解食堂管理的理论细节,将军理解将这群科学家和工程师集合在一起管理的理论细节。Leslie Groves将军是整个曼哈顿计划的负责人,但他自己可能完全不懂复杂的物理学。

同样的思路也被用来发明人工智能机器。图灵自己在1950年时设想,只要将智能分解成机器可以执行的指令集,就能让机器真正像人一样思考问题。刚开始的时候,大家都非常乐观。人们认为,只要把人类专家所知道的知识,写成机器能执行的很死板的条件句式指令集,然后再搭建一个资料库,称之为“世界知识库”,这样就能发明人工智能了。这就是GoodOld-FashionedAI,一条自上而下式的智能设计路线。

简单来说,这条自上而下式的路线,就是再造一个能理性思考的笛卡尔。这个笛卡尔式的机器能从公理和推理规则中推出许多定理,还能自动化排除矛盾。总之,很多人认为,人工智能就是发明拥有巨型资料库的理性推理机器。

这条路子也取得了很多成果,比如飞机的自动驾驶,电梯的自动驾驶,辅助医学诊断,写作拼写检查等等。但大家也都知道,这样的人工智能离人类智能还有很遥远的距离。人工智能只能在特定环境下,经过复杂的指令集,表现出看起来很厉害的能力。人工智能就是典型的无需理解的能力,而人类与机器不一样,人类有理解能力,人类还有自我意识。

丹尼特认为,要想发明更接近人类智能的人工智能,要采取更像演化算法一样的自下而上的方式。但我们不应该去试着发明强人工智能,因为那时候就要考虑强人工智能的伦理地位了。人类智能是自然选择这种无智能的过程所设计出的产物,同时也是无智能的图灵式机械化计算系统的产物。而“理解”这种特殊的理由表征能力,不是那么容易完全理解的。

笔者的补充

丹尼特假定的读者是完全不懂计算机科学和编程的,而我假定的读者至少对计算机有那么一点点了解。所以我这里写得比较简略。简言之,丹尼特是想让读者们明白,competencewithout comprehension,comprehension和understanding是同义词,只是丹尼特用前者显得更押韵。其实,所有的内隐能力都是无需理解的,常见的有骑自行车、游泳、弹钢琴等动作技能。如果把心理技能也算作动作技能,那么绝大多数能力都是无需理解的。这点的哲学基础,可以参见郁振华的《人类默会知识的维度》

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180210G0BRO100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券