首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

麻省理工发布自动驾驶“道德困境”调查:机器究竟会救年轻人还是老年人?

自动驾驶领域最有发言权的 CEOChris Uromson 先生将亲临 EmTech China。扫描上图二维码,参与全球新兴科技峰会。

人工智能的发展已经不可阻挡,自动驾驶成为现实的一天也离我们越来越近。但在那之前,除了还有技术上的障碍需要克服,我们在享受自动驾驶带来的便利前,可能还须先解决一个也许比技术问题更难解决的伦理问题:自动驾驶领域的“电车难题”。

交通事故的发生一直以来都是一个概率事件。在方向盘掌握在人类手中的时候,当事故发生时,驾驶员作出的决策是基于现场的状况、过往的驾驶经验,还有很大一部分是瞬间发生的本能反应,同时,人类驾驶员也将为其决策承担可能的社会和法律责任。

但在依赖程序做决策的自动驾驶领域,我们需事先就教会程序如何进行选择,这时我们就不得不事先作出选择:当事故无法避免时,谁的安全应该放在首位?这背后的原因又该如何解释?

10 月 24 日,一篇来自麻省理工学院的论文,探讨了全世界不同地区和文化的人们对这个伦理问题的看法。该论文整理了 2016 年一个叫做“道德机器”(Moral Machine)的在线测试的数据。该测试要求用户回答关于车祸发生时的一系列道德问题。类似于此前著名的“电车难题”:你是选择让失控的电车撞上铁轨上的 5 个人,还是拉动拉杆,让电车换到侧轨撞死 1 个无辜的路人?

“道德机器”对 9 个不同的影响因素进行了测试,例如,车祸发生时是选择撞男性还是女性?撞多数人还是少数人?年轻人还是老年人?守规则的行人还是乱穿马路的人?甚至是选择社会地位高的人还是社会地位低的人?

来自 233 个国家和地区的数百万用户参与了这项道德测试,在最后收回的约 4000 万个答案中,研究人员发现了一些全球一致的倾向,例如:当发生事故时,所有人都一致的表现出更偏向救人类而非动物、救更多的人、救儿童而非成年人。

(来源:麻省理工科技评论)

该项调查的研究人员认为,这份调查中涉及的一些因素可为政府在给自动驾驶汽车制定法律时提供参考。但同时,论文作者之一 Edmond Awad 也表示他们的研究仅是了解公众在这个伦理问题面前会作何选择,若要从规范伦理学的角度来思考这个问题怎么解决,那得交给专家。

“道德机器”得到的结果还显示:不同国家的道德偏好存在着显著差异。导致这些差异的原因与很多因素有关,包括地理因素,如欧洲和亚洲国家之间存在差异;文化因素,比如个人主义文化和集体主义文化间的差异。

加州理工大学伦理学主任 Patrick Lin 表示,“自动驾驶汽车将是第一个大规模融入社会的 AI 技术,将会给其他 AI 技术和机器人技术的应用定下基调,因此这个伦理问题尤其需要理性的讨论。”

文化差异如何影响道德选择?

“道德机器”统计结果表明在不同文化下的的人们在部分选择上有一致的倾向,但尽管倾向一致,不同的文化背景可能会造成倾向程度的差异

比如,研究人员发现,在东亚和中东地区,例如中国、日本和沙特阿拉伯的人们在选择救年轻人还是老年人这个问题上,倾向于保护年轻人的比例相对较低。并且这些亚洲国家相对于欧美国家来说,对救高收入人群的偏好要少一些。研究人员认为这之间的差异可能是源于个人主义和集体主义之间的文化差异。个人主义更强调个体的价值,而相比之下,集体主义对年轻人偏好较弱,也更多体现出对老年人的尊重。

图|相比之下,亚洲国家和地区更偏向于保护老年人 (来源:麻省理工科技评论)

研究还发现,在地理和文化上相近的人们在自动驾驶伦理问题上的意见也更相近。但有些与地理位置无关的因素也会影响人们的道德选择。如 GDP 较低的国家,人们在选择救守规则行人还是不守规则的行人这个问题上,没有表现出太大的倾向性。这也反映出这些国家可能规则意识较弱,违反规则的处罚也较轻。

值得注意的是,设计“道德机器”的作者强调,这些数据无法明确地得出不同国家人们在这类问题上的道德偏好。因为能够参与到测试的人们是需要具备上网能力的,所以这些参与者的代表性可能不足。此外,用户在测试中仅有两个简单的选项:“撞这群人”还是“撞那群人”。但在现实生活中,发生事故的概率和严重性都不同,道德选择也会根据具体的情况而定。

图|在倾向于保护行人还是乘客安全问题上,中国明显的体现出保护车内乘客的倾向(来源:麻省理工科技评论)

尽管如此,专家们表示,这类测试还是有价值的。这些道德困境的设计能够避免其他变量的干扰而专注于单一的特定变量,引起我们的思考。Patrick Lin 表示,即使汽车不会经常在撞 A 还是要撞 B 之间进行选择,但它们仍然需要在其他问题上进行权衡,比如在面对不同类的人时,留多大的安全距离才算合适?这个问题归根结底也是伦理问题,所以我们现在就需要思考这些尖锐的伦理难题。

法律条文能否解决这类伦理问题?

那么立法者何时会将自动驾驶的伦理道德规范写入法律法规?自动驾驶汽车公司什么时候才能将它们写入程序呢?

其实第二个问题早有答案,科技公司在算法写入时就已有了大致的偏好,但其中一部分决定可能会产生伦理争议,因此他们并不乐意公开讨论这类敏感话题

例如,早在 2014 年,Google X 创始人 Sebastian Thrun 曾表示,他们的自动驾驶汽车在发生碰撞需要二选一时,会选择撞击体积更小的一方。Sebastian Thrun 还曾表示,谷歌的自动驾驶汽车会尽可能保护行人和骑行者,因为他们的保护措施更少。同在 2014 年,一名来自梅赛德斯奔驰的管理人员曾表示,他们的自动驾驶汽车在事故中会把驾驶员和乘客的安全放在首位,但随后又否认了这个说法。

这些企业对自动驾驶伦理问题的模糊态度是可以理解的,因为一方面,他们的技术还远未成熟到能够精准分辨年轻人和老年人;另一方面,他们在表示偏向保护一部分人的时,总会得罪另一部分人。这也正是自动驾驶伦理困境的复杂之处。

(来源:MORAL MACHINE)

欧洲政策研究中心的高级研究员 Andrea Renda 表示,目前私营企业在这些伦理问题上做的工作最多,但这还不够,欧盟正在制定相关的道德准则,未来或将通过立法来实施。而在美国,国会已经公布了一些监管原则,但还未进入到立法程序。

Andrea Renda 警告道,仅靠政府制定相关法律是很危险的,公众需要尽可能地参与到关于自动驾驶汽车伦理选择的问题辩论中,政府和专家在做决定时也需要再三考虑人权因素。

德国是迄今为止唯一一个在自动驾驶汽车伦理选择上给出官方指导意见的国家。德国立法者表示所有人的生命都应该被平等地重视,并且应该禁止根据性别、年龄等因素来做选择。

然而,“道德机器”的研究团队认为,如果在自动驾驶汽车伦理选择这个问题上没有倾向性,那也就意味着程序作出的决策会违背大众的意愿。比如就公众更倾向于救年轻人而不是老年人这个选择上,如果车祸造成了儿童遇难,那么政府又将如何应对来自民众的舆论压力呢?

Andrea Renda 认为,在讨论自动驾驶的道德伦理问题时,冲突是不可避免的,这是得出最终结果的必经之路。

可以确定的是,一个“黑箱”的结果是难以被大众接受的,程序在车祸发生时的决策过程应向公众开放,更重要是,每个人都应参与进来,为这个与我们每个人性命攸关的决策投出自己的一票。

所幸的是,自动驾驶技术目前还处于起步阶段,到真正的普及还有很长的路要走,这给政府和公众留下较为充足的时间来对这一道德问题进行探讨和辩论。

-End-

编辑:刘星 责编:李贤焕

参考:

https://www.theverge.com/2018/10/24/18013392/self-driving-car-ethics-dilemma-mit-study-moral-machine-results

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181101B10IJM00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券