AI:人工智能未来的道德走向是如何让机器人明辨是非

相信很多人都听过哲学家菲利帕·福特(Philippa Foot)于1967年提出的“电车难题”。50年来,电车难题有了很多版本。在无人驾驶已经出现的今天,当车祸无法避免时,无人驾驶汽车究竟应如何取舍,是优先保护马路上的儿童、还是宁愿撞人也要保护车内人员呢?

人类即将进入机器人时代,《科学》杂志有研究表明,随着机器习得类人的语言能力,它们也容易习得语言应用中根深蒂固的偏见,这种偏见如若被放大,后果不堪设想。还有预言称:人工智能系统在未来很可能摆脱人类监管,自主作出决定,甚至走上反抗人类的道路。

温德尔·瓦拉赫

这次活动由北京大学出版社、北大博雅讲坛、博古睿研究院中国中心、当当联合主办。活动主讲嘉宾是《道德机器:如何让机器人明辨是非》的作者之一温德尔·瓦拉赫(Wendell Wallach)。中国社会科学院研究员刘钢、西安交通大学计算哲学实验室中方主任王小红也出席了活动。

瓦拉赫是享有国际声誉的人工智能和神经科学伦理学领域的专家。他主持耶鲁大学生物伦理学跨学科研究中心技术和伦理工作小组长达十余年,获得过全球技术网络协会(World Technology Network)颁发的2014年的伦理学奖,世界经济论坛任命他为2016-2018全球未来技术价值和政策委员会的联合主席。

瓦拉赫并不是站在未来学家的角度去猜想或者预测人工智能的未来,而是基于当前技术的现状去说明伦理决策能力的必要性。目前这些普遍被应用的自动金融系统、机器人照料者,以及机器人吸尘器已经能够影响人类的生活,并产生复杂而难以预料的伦理后果了。

他认为人工智能的道德发展将经历操作性道德、功能性道德,和充分的道德主体性三个阶段。其中操作性道德比较低端,是指道德已完全掌握在设计者和使用者手中;第二个阶段是功能性道德,稍微高端一些,因为这个阶段机器自身已经有能力响应道德挑战;第三个阶段就是计算机可以自己做道德决策的阶段,当然第三个阶段还是开放性的,哲学家、工程师们还需要探讨单单靠一台机器能否成为道德主体的问题。操作性道德和真正的道德主体之间还有着很多的空间。

5月20日,北大博雅讲坛第129期活动“机器人能明辨是非吗——人工智能伦理道德的未来走向”正是要探讨这些问题。

他在《道德机器:如何让机器人明辨是非》一书中认为,虽然难有万全之策,但有可能建构一种人工道德智能体(AMAs),让人工智能具有基本的道德敏感性,逐步使人工智能和机器具备道德决策能力,并随着智能技术和人机交互的进步而进化、发展。这是一种自上而下式与自下而上式的混合道路,这样才能够使美德和特殊的情境相结合。

瓦拉赫对很多问题还保持开放态度,比如最近的关于道德心理学的实证研究,强调一个人与生俱来的身体或心理能力,而不是理性、情感社交、语义理解,以及意识,对人的道德决策都很重要,那么这些因素对于AMAs是不是本质性的因素呢?如果是的话,可否在计算机中实现?

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180525A0VO2K00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券