自动驾驶汽车应该如何应对不可避免的碰撞?一项研究引起争论

随着人工智能的持续快速发展,人们越来越担心诸如自动车辆之类的机器将如何做出道德决策,尤其是那些危及人类生命的决策。为了阐明这个问题,麻省理工学院的研究人员进行了一次大规模的全球调查,希望能够评估人们如何看待自主车辆在这种情况下的行为。

这项在线调查涉及来自233个国家和地区的200多万人,重点调查了一个被称为 “电车难题”的经典伦理思想实验,在这个实验中,自动驾驶汽车的无法避免事故且必须在两种可能致命情景的选择之一。例如,一辆无人驾驶的汽车可能面临转弯撞上一两个行人或一大群行人的选择。

麻省理工学院媒体实验室研究报告的主要作者埃德蒙·阿瓦德(Edmond Awad)在一份声明中说:“这项研究主要是试图了解无人驾驶汽车采取的道德决策,我们还不知道他们应该怎么做。”

在实验中,研究人员开发了一种叫做“道德机器”的多语种网络游戏,参与者必须在自主车辆可能面临的一系列困境中陈述他们的优先结果。

总的来说,道德机器收集了将近4千万个个体的决定,然后研究人员将它们作为一个整体,或者按照参与者的年龄、教育、性别、收入和政治或宗教观点来分组进行分析。

这项发表在《自然》杂志上的调查结果揭示了全世界人们似乎最认同的三个因素。首先,人类的生命应该不受动物的影响;许多人应该优先于少数人得救;年轻人应该比老年人先得救。

“主要偏好在某种程度上得到普遍认可,”阿瓦德说。“但他们对此与否的认同程度因不同的群体或国家而异。”这些区域差异以各种方式表现出来。例如,在东方国家中,包括亚洲许多国家,与南方国家相比,研究人员发现不太倾向于青年人而不是老年人。

研究人员说,承认人们的道德偏好可以告知控制自主车辆的软件设计的方式。此外,鉴于公众对研究的大量兴趣,他们建议那些掌握技术创新的人应该在可能影响公共安全的时候寻求普通人的意见。

阿瓦德说:“我们在这个项目中试图做的事情,以及我希望变得更加普遍的事情,就是让公众参与这类决策。”

澳大利亚新南威尔士大学人工智能教授托比·沃尔什(Toby Walsh)没有参与这项研究,他说这项研究的结果是“有趣”和“具有挑衅性”,但警告说,尽管结果显示人们很多对这些自动系统应该如何运作的期望,这些期望不一定能指导他们的行为。

“我们给机器的价值不应该是一个或多个特定国家的模糊平均值,”他在一份声明中说。“事实上,出于多种原因,我们应该让机器达到比人类更高的道德标准:因为我们可以,因为这是人类信任它们的唯一方式,因为它们没有我们人类的弱点,也因为它们会更多地感知世界准确地说,并且比人类更快地做出反应。“

来自新南威尔士大学伊恩·麦吉尔说,“这项研究提出了一个重要的问题,即我们应该在涉及自动驾驶汽车的生死攸关的情况下应该保护谁。”他未参与此项工作的研究,但他说“然而,即使有足够的社会共识,我们希望这些车辆做什么,在不可避免的答案的情况下,我们仍然面临着挑战,编码这样的'道德'到自主车辆。然后说服人们购买那些明确地将其他道路使用者的安全置于同等或甚至比他们自己更重要的地位的车辆。”

麦吉尔说:“这些公司竞相将这些汽车推向市场,似乎没有充分考虑到新技术部署所带来的社会风险,这无济于事。”“我们是否可以相信推动这一趋势的公司,一些公司对自己的‘赢家’采取一切商业道德提出重大问题,从而将社会认可的道德规范适当地规划到他们的产品中?”

来自新西兰奥塔哥大学的教授科林·加瓦汉(Colin Gavaghan)表示,这些类型的“电车难题”在哲学上很有吸引力,但直到现在他们很少关注法律。

“法律往往对那些本能地对突发事件作出本能反应的人很宽容。不过,在无人驾驶的汽车中,将道德编程的可能性提高到了另一个水平。“那么,我们应该制定哪些道德规范呢?”那么多数人的意见应该是多少呢?这项研究中表达的一些偏好,很难与我们基于性别或收入的歧视和偏爱平等的生活方式相适应。

“一个比较容易理解和适应的选择是让汽车尽可能多地挽救生命,”他继续说。有时,这可能意味着要向伐木卡车前进,而不是转向一群骑自行车的人。我们中的大多数人可能会认识到这是“正确的”做法,但是我们会为了许多人的利益而买一辆牺牲我们生命或者我们亲人的生命的汽车吗?”

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181027A1GYY400?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券