人工智能:人类挡不住的诱惑?

不久前,中国艺术研究院举办“艺术与人文高端讲座”,邀请中国社会科学院哲学研究所研究员赵汀阳主讲“人工智能的界限”,从哲学家的视角探讨人工智能的奇点、后果、用处、风险等问题。赵汀阳认为,人工智能的危险之处不在于能力强,而在于自我意识。其能力再强,只要没有自我意识,就没有反叛之心,就会为人类创造无穷的财富。

原文 :《人工智能:人类挡不住的诱惑?》

作者 |中国社会科学院哲学研究所研究员 赵汀阳

图片 |网络

对于人工智能问题,我所能做的就是从分析哲学的角度来澄清一些问题。分析哲学是一种理性的分析方式,讲理不讲情,这样的角度有助于分析问题,否则我们总是倾向于以自己的情感去看待社会的各种变化。对人工智能虽然一直都有反对的声音,对之持有一种伦理上或者是情感上的批判,但是在我看来这是无效的问题。因为人工智能的社会一定会实现,任何的阻力都是无效的。人们对它的兴趣远远大于阻力,只要有大资本和国家力量的存在,人工智能就一定会胜利。所以对人工智能所有的反对性问题,在我看来都是无效问题。人工智能的一些好处是挡不住的诱惑,比如我们希望以后会有智能的生产、智能的城市、智能的建筑、智能的服务系统、智能的医疗、智能的交通等等,这些发展很显然能够减少生产成本、交易成本,减少能源的消耗,增加生产力、管理能力和财富,甚至能够增加战争的能力。

那么有效的问题是,人工智能带来的哪些结果是我们可以接受的,或者是不可以接受的呢?关于人工智能,我们有可能涉及三类问题:第一,关于人工智能,我们能够有效地谈论哪些问题?第二,人工智能有可能出现什么样的临界点,也就是俗称的“奇点”,这种奇点在哪里?第三,根据理性的风险规避原则,人工智能的限度在哪里?

在未来服务就是力量

人工智能的政治后果是一个有效的问题,它包括很多方面。人们经常会谈论比如隐私,人工智能时代我们的隐私可能会大大减少,被掌握的个人数据太多,个人自由就会减少,换句话说,人工智能的社会有可能是一个新型的专制社会。但是这一点从根本上来说是人的问题,而不是人工智能的问题,关键取决于使用人工智能的人——把人工智能使用到什么程度。因为事实上很多所谓的不好、不良的方面,人是可以控制。这里有一个技术对称性的原理,我们能够做到某件事情,当然也就由人去限制某件事情,这是对称的,关键在于人。如果我们选择人工智能,就不存在没有代价的利,就像不可能有永动机一样,不可能一件事情只有好处没有坏处。有所得就有所失,因为我们不可能同时选中各种好处——我们不可能同时拥有多维的时间和很多空间,我们是在三维空间中存在,一个时间点选择一个事情,不能选择另外一个。

我们想要人工智能提供更好的技术服务,那么一定就会有代价,这个代价就是一部分的个人自由、相当程度的隐私甚至我们的个性也会牺牲掉。人工智能所带来的系统化服务,就像我们现在由互联网+所提供的各种东西,都有整齐划一的倾向,人工智能的系统服务更是如此。那么它将会导致我们过上很类似的生活——得到的是很类似的服务,买的都是很类似的产品,得到的也是非常类似的信息,大家所能拥有的东西都差不多。因此,我们将来人的面目和思维都可能很类似,不可能有什么个性。所谓与众不同的东西,或者说高品质的好东西,其存在基础是等级制和差距。如果我们反对等级制,反对差距,就不会有“高质量”和“与众不同”,从这个意义上说,我们所追求的东西恰恰导致了人类命运的这种悖论性。

我们人类在技术上不断地追求技术的无限发展,因为技术越发展,生活水平越高。但是,我们同时在意识上又要追求一切事情的平等化,这是当代社会的特点。在我看来,这暗含了一个严重的问题,这种技术化和平等化,事实上是创造了更容易形成专制的条件。因为平等意味着我们的卓越的精神要屈服于基本的善,人们都可以分得平均线的好东西,如此,一切资源都会向平均的好东西倾斜,卓越的精神就失去了生存的基础。而只有这种卓越的精神才是难以控制的自由,才是控制不了的自由。

相反,追求平均好处,是整齐划一,都是标准化、程序化,那么这些好处就非常容易被记住,被系统所控制,天然的思维被技术来控制。而未来的技术系统将会提供人人都离不开的服务。事实上我们今天就已经差不多了,可以想象,如果我们的手机突然失去了服务功能,失去了互联网的服务,大家立刻就会陷入非常尴尬的生活状况,这只是很初步的。如果将来人工智能的服务充满了生活,我们可以想象,这将是一个人人离不开的服务。大家为了获得技术提供的服务,只好屈服于技术系统的控制。所以未来可能会有一种新的装置。而其中一个悖论是,这种新的专制是人们自愿选择的,而不是被强加的。因为人们会以市场化和民主的方式,自愿选择这种技术的新装置。因为如果谁拒绝了手机、电脑、汽车、抽水马桶等这些现代化的东西,根本不可能生存下去,或者回到原始人的生存方式,是不能忍受的。而我们尤其还要考虑大资本和国家的力量,他们会选择与高科技建立联盟,因为这是未来最强的力量,这会进一步地明确这种技术系统的新装置。

但是,这种新装置会是一种非常舒服的装置,因为它的装置性质有了一个根本的变化:不是剥削型的,不是高压型的,而是一种服务型的。在这个意义上,力量这个概念产生了一些变化。最早大家知道武力就是力量,但是后来又发现知识就是力量,那么在未来服务就是力量。而且这种秩序是非常高效的,于是这种新装置的红利来自于系统化技术的收益,而不是劳动力的剥削。事实上,未来社会将会有很多人不用再从事非常辛苦的劳动。这种新装置跟传统装置不一样,但它的好处和坏处需要大家反思。

最好的机器人就是按规则办事的机器人

人工智能的伦理问题,这也是大家讨论最多的。就我目前所见,世界各地想象的这些伦理规范有很大的相似处,并且也都很好。其中有一点疑问,就是我们有一些人有这样的一个幻想:希望人工智能像人一样,拥有人的情感、价值观和人的偏好,即它的内心会有一颗人的心,这种倾向我称之为拟人化的人工智能,在我看来这比较危险。因为人的欲望和价值观就是一切冲突的根据。任何感情、价值观或者说其他的选择偏好,都意味着一种叫做“有别的看法”,即我们会对事物、人进行区分。有了这个“有别”就会有优先性的问题,即哪件事情哪个人是需要优先的,就有所谓的价值排序,只要出现优先性和价值排序,这个结果就是歧视,虽然说我们今天一般都回避这个词。事实上歧视是无所不在的,在今天社会中也是无所不在,因为它是一个逻辑结果。你只要做出了区分,那么它的逻辑结果就是歧视。

那到底什么样是最好的价值排序?人类自己也没有搞明白这个问题。如果我们把人类的价值观、情感和偏好输入给人工智能,那么可想而知,这是很危险的。在我看来,最好的机器人就是按规则办事的机器人,即保持其机器人的身份而不要成为另外一个主体。我们人类社会不缺主体,主体已经太多,不需要再增加主体。

真正的危险是反思

人工智能的临界点或者奇点在哪里?我们所谓的临界点或者奇点,也就是人工智能获得自我意识和反思能力,当然这个问题现在被一些预言家和传媒渲染得太夸张。

虽然在我看来恐怖的未来是比较远的,但是可能性是存在的。在这个意义上,目前理论上有一点可以讨论:人工智能将来的思维性质是什么?如果一种思想思考得只是外部世界,那么无论多么高超的思维能力都是不危险的,它仅仅是思想的思,对外部事物的思考产生的是知识,知识越多越好,就意味着能力的增强,能力强不等于危险。真正的危险是反思,如果有一天,人工智能的思想对象是它自身,即思想自身变成思想对象,这个时候称为反思。反思的产品不是知识,而是权利和革命。人类只要一反思就会提出各种危险的要求。当然反思有很多种,我们只讨论两种比较危险的反思,这两种反思能够提出两种原问题。

第一个问题是,我能够解释我自己吗?这是一个知识论或者形而上学的问题,我称之为是具有哥德尔水平的问题,数学家哥德尔反思了数学系统,数学系统本身是不会去反思的,但是哥德尔用了一个巧妙的技巧,教给数学系统反思自己,结果导致了所谓的数学的危机。曾经,这很大程度上打击了人类对真理的信心。哥德尔这种反思会发现有些命题是真的,但是它不是被证明的,而是我们约定的或者相信的。如果这样的情况存在,那么就很危险。在逻辑上我们可以推论出上帝是真的,那么魔鬼也是真的,什么奇怪的东西都有可能被开发出来。另外,如果一个系统是足够丰富的,所谓足够丰富就相当于包含无穷多的这种情况。那么在这种情况下,这个系统往往或者是自相矛盾的,或者是不完备的。这就意味着我们可以发明很多规则,规则是发明出来的,而不是天生的。这都是很危险的——其中蕴含着权力。

第二个问题是,反思“我是自由的吗?”如果引起这样的问题,马上就引出政治问题,诸如权力、利益等,如果能够提出这些问题,那么人工智能也就达到了霍布斯、马克思这样的思维水平,相应也就产生让一切事情由谁说了算这样的问题,这非常危险。所以在这个意义上来说,很多人担心所谓能力超强,通用人工智能AGI,在我看来是不危险的。能力越强,越是人类的好帮手。

那么,人工智能如何才能突破它的极限达到自我意识?我们目前的人工智能都是属于图灵机,它的意识是有局限的,在我看来至少有两类问题是回答不了的,一类是悖论,一类是涉及无穷性的问题。这两类问题其实也是人类思维的极限。人类研究悖论,但是其实不能够解决严格的悖论。人类这些问题虽然做不到,但是人类不怕这些所有的怪问题,因为人类有特殊的功能叫做不思考的功能,这是一种自我保护功能,一旦碰到解决不了的问题,人类就可以在知识或者思想的领域内建立一个暂时不予思考的隔离分区,把这些问题收在里面,而不会一条道走到黑去想那些想不了的问题。人类之所以有神经病,就是因为想不开。图灵机是一个封闭的意识世界,这是一个缺点,也是优点。这种封闭性保证了它的高效率。我现在担心的问题是,如果人工智能一旦获得反思能力,那么它就会像人类一样要求修改规则。在我看来,比较合理的想象,将来的超级人工智能有它的偏好,它按照它的偏好重新安排了万物的秩序,也安排了整个世界上所有事情的秩序。按照它喜欢,但是问题是它喜欢的多半是人不喜欢的。所以我觉得这是一个危险的所在。

合理限度:不能超越人类的主体性

最后,根据理性的风险规避原则,我们能够为人工智能设想一个什么样的合理限度?我们可以先做一个想象小游戏,以民主投票的方式做出两张列表。第一个列表,我们要罗列不想要的人工智能的功能。当然,我们可以想象有各种各样的反对,很多人会不愿意破坏现在的生活节奏,不愿意公开隐私,不愿意牺牲个人的自由,不愿意受支配,诸如此类。第二个列表是专门罗列人类想要的好处。但是,我们很快就会发现,这两张列表是互相矛盾的。因为我们人类列出来的能够想象出来的各种好处,比如说,我们想得到最好的服务,逃避劳动,马克思早就指出,人类逃避劳动就像逃避鼠疫一样。我们还想要无穷的财富,享有各种各样的好事,好吃懒做得到所有的好处。所以,我们可以看出这其中的问题,即这两件事情是不能够两全的。这时候会出现什么样的选择?我猜想,由于好吃懒做、贪得无厌的本性,所以人类是不愿意放弃好处的,宁愿为了得到好处而接受一些坏处,所以从这个意义上来说,所有的高科技包括人工智能在内,都是无法阻止的。

那么在这种情况下,我们能够想象的一个理性的限度,即大家都能够接受的一个限度,应该是收缩为叫做未来人工智能是不能威胁人类的生存,或者说不能超越人类的主体性。人类过去的生活的那些好处,各种浪漫的生活,一定会在很大程度上被牺牲掉。估计人类最多也只能够要求保住人类的主体性和保住人类能够生存下去。在我看来,唯一的办法就是人工智能的研究或者制造应该在某个地方发展到一定程度的时候,是不是可以考虑要停步,即停在一个高能力的水平上,但是又没有害,没有自我意识。那个时候人工智能的能力,一定超出人类很多很多,就像阿尔法狗现在打败人类围棋手一样,将来会更离奇。但是能力强不怕,危险之处不在于能力,而在于自我意识。人工智能能力再强,只要没有自我意识,就没有反叛之心,就会为人类创造无穷的财富。

我最后的结论就是:目前我们对人工智能的恐惧是夸大的,但是未来的危险是一定的,可能性是存在的。

(根据速记稿整理,感谢凤凰国学频道整理支持)

文章原载于社会科学报第1673期第6版,未经允许禁止转载,文中内容仅代表作者观点,不代表本报立场。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190925A0ORLE00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券