《道德机器:如何让机器人明辨是非》

【作者】[美] C.艾伦 [美] W.瓦拉赫

【译者】王小红

【出版单位】北京大学出版社

谁的道德或什么样的道德?

当你的工程师朋友走进你的办公室,告诉你他的公司让他设计一个行为合乎道德的机器人时,你可能还会有一种反应。“哪个公司能有权力决定什么是道德的?”你可能会这么想。

建造人工道德智能体的工程面临着棘手的问题。到底采用谁的道德标准?什么样的道德程序?工程师很擅长为具体说明的任务建立系统,但是道德行为并没有清晰的任务说明。对道德标准的讨论可能看起来暗示了有一种可以接受的行为规范,但是人们对于道德是有很大分歧的。

对伦理程序的讨论看起来也显示了一种如何把伦理行为程序化的概念,但是算法或成行的软件代码能否有效地演绎伦理知识需要对那种知识都包含什么有着深刻的认识,并且需要知道伦理理论如何与道德行为的认知和感情方面相关联。澄清这些东西,并且以不同的方式思考它们的努力,在人工智能体的背景中呈现了特殊的视角。任何对机器道德的尝试必须评估其将理论转化为计算机程序的可行性。

对各种行为的道德性的分歧——从非法从互联网上下载音乐到堕胎或协助自杀——显示出了确定人造系统行为道德性的标准的困难。受启蒙运动的理念所塑造,康德、边沁、密尔的道德理论认为道德准则应为普世性的。但甚至那些大家有着一致观念的价值观,在特定情境的细节面前也会崩溃。诚实或不说谎,是一种大多数人在相信他们的诚实会导致对他人的不必要的伤害的情况下会置于一旁的美德。如果说谎有净收益,多数人会称赞其正当性。而另一方面,康德认为永远说真话是绝对律令,不论其后果是怎样的。他认为,对别人撒谎会剥夺那个人的自主权,而康德认为自主权是一切道德的基础。

鉴于有关特定价值观、行为和生活方式的道德理念如此之多,也许对于应该用谁的道德理论或什么道德理论到人工智能中去的问题没有一个简单的答案。就像人们有着不同的道德标准,所有计算机程序没有理由必须遵守相同的道德准则。我们可以想象设计出遵守特定宗教传统价值观的道德智能体,也可以想象设计出遵守另一套世俗人文主义价值观的道德智能体。抑或人工道德智能体的伦理代码应该以政治正确的一些标准为模型。机器人大概可以被设计为内化一个国家的法律准则,并且严格遵守国家的法律。

对文化多样性人工道德智能体的让步,并不意味着没有普世的价值观,而只是承认了设计人工道德智能体有着不同的路径。不论在人工道德智能体的设计中哪种道德、规范、价值观、法律或准则占了上风,那个系统都必须满足外部确立的标准,即它是否成功地作为一个道德智能体运行着。

此微信内容由《财经》杂志宏观学术组精编呈现。“财经杂志评论”微信公众号:caijingreview。欢迎关注!

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180322B0FXEU00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

同媒体快讯

扫码关注云+社区

领取腾讯云代金券