“人工智能”的道德危机与出路

2017年,著名物理学家斯蒂芬·威廉·霍金曾在北京举行的GMIC大会上称,“我目前见证的最深刻的社会变化是人工智能的崛起”。而这位伟大的科学家还有一个更广为人知的观点:人工智能很可能是人类文明的终结者。

其实,这两个观点说的是一回事儿。在一个互联网已经得到广泛应用,越来越“去中心化”、“分布式”的世界,人工智能的崛起也意味着人类智慧的失控和许多我们永远无法预知的危险。尤其今年以来Facebook 数据泄漏、“大数据杀熟”、无人驾驶汽车发生车祸等事件引起的争议、恐慌和道德危机,更是让人们对数字技术和人工智能的滥用忧心忡忡。所以霍金强调,人工智能应该在符合伦理道德和安全措施要求的情况下开发,因为脱离人类控制之下的机器将很难被阻止。

Facebook 数据泄漏引发公众质疑

即使不考虑被人为的用来侵犯隐私权和数字物权来获利,人工智能自身的进化、学习、发展也会带来伦理问题的进阶和升级,这也为诸多研究所证明。腾讯研究院的一项研究指出,缺乏伦理价值、常识、争议观念的算法系统,在现实的交互中,很容易就会造成歧视和其他形式的不公。

《科学》杂志中最新的研究也表明,随着机器越容易习得类人的语言能力,他们同样就越容易习得语言应用范式中根深蒂固的偏见,这种偏见如若被强化放大后果将不堪设想,这类存在性格缺陷的AI相比穷凶极恶的无耻之徒更加危险。

道德是人类缓慢进化的产物,但人工智能的迭代又在加速,其复杂性和风险也不可同日而语,伴随人工智能兴起所必要的道德该如何成为可能,越来越成为一个当今世界不可回避的重大问题。

《道德机器——如何让机器人明辨是非》中译本封面

人工智能和神经科学伦理学专家温德尔·瓦拉赫与认知哲学家科林·艾伦合著的《道德机器——如何让机器人明辨是非》正是这一领域的奠基之作。这本书之所以具有如此关键的开创性,很大程度上是有赖于对该问题在解决路径所做的基础性探讨。

如果按照模拟人类道德演进路径的解决思路,那么最好的办法无疑是“自下而上”的发展思路,其关键在于创造一个环境、生态能让智能体探索自己的行为方式、去学习,在作出道德上值得赞扬的行为时适时得到奖赏,并将这种是非观念和行为模式稳定下来。这种解决方案符合波普尔、哈耶克等社会科学大师的“开放社会”、“理性的自负”的经典理论,而且也为罗伯特·阿克塞尔罗德等行为分析及博弈论专家持续多年的研究所支持,无疑有坚实的学术基础。更重要的是,这种思路很符合人类的历史和经验,甚至每个人从童年开始的道德发展就是按照这样一种模式逐渐被建构起来的。文化即驯化,让人工智能也模仿人类“自下而上”通过行为选择历程承担起道德责任看起来可行性最强。

然而,人类道德经验的一个核心特征就是,人们经常觉得自己会在自私的行为和利他的行为之间徘徊。人们感受到两个方向的拉力,而这种对立就使自由成为可能——做错的事情和做对的事情的相同的自由。更何况人工智能毕竟比复杂的人类还要复杂一些。

这使我想起伟大的行为科学家诺瓦克在他的《超级合作者》一书中的一个结论:通过计算机对许多类型的博弈行为的模拟实验,发现无条件合作者能够逐渐摧毁“以牙还牙”策略和“宽宏以牙还牙”策略,却无法击败“赢定输移”策略。“赢定输移”只关注自身得失,以确保自己在博弈中占得先机,并不需要理解并记住其他人的行为,所以可以对无条件合作者加以盘剥。所以,正像人们在现实社会中看到的那样,如果是人工智能的道德来自“自下而上”,那么也有可能让“背叛者”或“投机者”取胜。所以,“自下而上”的过程也就是“试错”过程,期间的不安全感带来的威胁始终存在。

相对而言,“自上而下”的进路似乎更能获得安全保障。在这一伦理原则上最典型的是阿西莫夫提出的机器人三定律:一是机器人不得伤害人类,或因不作为使人类受到伤害;二是除非违背第一定律,机器人必须服从人类的命令;三是除非违背第一及第二定律,机器人必须保护自己。

这里就出现了一个非常矛盾的局面。一方面,机器在自动运行执行定律的过程中,必须要以认知、情感和反思能力来分析具体的情境,担负道德责任,从而具有类似康德的绝对律令中的自由意志;另一方面,阿西莫夫定律又将机器人变成了人类的奴隶,使其丧失了独立承担道德责任的自主行为能力。况且,阿西莫夫定律两个定律之间相互间就足以产生棘手的冲突。

所以这种源自宗教、哲学、文学等各个方面,以摩西十诫、法律和职业守则、黄金法则、道德箴言、乡规民约等表现出来的“自上而下”进路恐怕也很难成就人工道德的路线图。这种“戒律”模式在当前伦理学的主要学派之间尚各执一词,美德间的冲突、不完善的美德清单,尤其是一些概念界定上的困难。比如功利主义、义务论和美德伦理学对规则之间的冲突和在具体情境中的运用都很难保持一致,就更难评估在人工智能和机器人领域应用的后果了。

所以,这本书提出了一个重要思路:认为虽然很难有完备的解决方案,但有可能开始建构一种功能性道德,即人工道德智能体(AMAs),让人工智能具有基本的道德敏感性,在基于开放型、交互性的前提下,会逐步使人工智能和机器具备道德决策能力,并随着智能技术和人机交互的进步而进化、发展。

显然,这是一种自上而下式与自下而上式的混合道路,这样才能够使美德和特殊的情境相结合,使人工道德智能体更像人。书中也介绍大量的这方面的研究成果,比如孟斐斯大学计算科学家斯坦·富兰克林试图在人工系统中整合理性推理与情感的IDA系统和学习型智能配给代理(LIDA)模型,伊戈尔·亚历山大建构的涉及视觉意识过程结构的神经网络模型,以及霍兰德的建立一个可以再现意识出现条件的机器人。

无论如何,能分别是非对错的人工道德的重要性,一点儿也不亚于人工智能本身。而且其中所揭示的关于人类道德决策的知识本身,也如陪伴孩子成长所得到的启示一样,会成为人类的一面镜子。

事实上,人工智能如果在道德决策问题上无法承担其责任,那么最大的受害者可能还是人工智能本身。因为人恐怕是最会推卸责任的一种物种。人类具有对AI 的控制权,这一点从最近沸沸扬扬的Facebook泄露数据事件就可以看出端倪,甚至有评论文章以“赚钱和背锅是AI的使命”为题加以指责。国内某著名互联网公司在研究中也信誓旦旦强调:歧视在很多情况下都是算法的副产品,是算法一个难以预料的、无意识的属性,而非编程人员有意识的选择,这更增加了识别问题根源或者解释问题的难度。

所以,人工道德成为可能,不仅需要在设计上走对方向,促进机器心灵与人类伦理统一。也需要加快相关的立法,规范人的行为,使人能够应对人工智能对人性的挑战,发展出人工智能时代作为人本身的道德进化。

本文部分内容刊于2018年4月28日《21世纪经济报道》,标题为“人工智能如何成为可能”

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180525A1ATZO00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券