专栏首页新智元Nature大型调查:当AI遭遇电车难题,它将拯救谁?

Nature大型调查:当AI遭遇电车难题,它将拯救谁?

来源:the Verge

编辑:三石,肖琴

【新智元导读】随着自动驾驶汽车的普及,其安全性问题被社会广泛关注。人类在遇到车祸时会本能的对“先救谁”进行选择,而若是以编程形式让自动驾驶汽车也具有这样的功能,道德决策又将如何选择?今日,MIT在Nature上便发表了题为“道德机器(the Moral Machine)实验”的论文,对该问题进行了研究与探讨。

“我和你的老母亲同时掉进水里,你先救谁?”

这道世纪难题令多少英雄好汉竞折腰,那么如果让自动驾驶汽车通过程序自行判断,结果又将如何呢?

让我们先来回顾近期惨不忍睹的自动驾驶车祸事故

  • 2018年3月18日,Uber自动驾驶汽车冲撞一路人女子,该女子不幸身亡;
  • 2018年1月10日,福特投资的Argo AI发生交通事故,导致车内两人受伤;
  • 2016年5月7日,特斯拉Model S与挂车相撞,驾驶员不幸身亡;
  • 2016年1月20日,京港澳高速,特斯拉轿车撞上作业车,驾驶员不幸身亡;
  • ......

随着自动驾驶的普及,人们在享受便利与高效的同时,也必须考虑自动驾驶的安全性问题。这对社会来说也无疑是增添了一份负担:对汽车进行编程,在发生交通事故的时候,使其具备优先拯救哪些生命的能力

在这种情况下,人类驾驶员肯定会本能地去选择先救谁,但是对于算法来说,这道选择题应当是提前就有答案了的。那么汽车公司和政府又会做出怎样的选择呢?救老人还是孩子?救多数人还是少数却很特殊的人?

今天,MIT发表了一篇论文,探讨了公众对这些问题的看法,并整理了2016年启动的一个名为the Moral Machine(道德机器)的在线测试数据。

The Moral Machine实验

它要求用户对虚拟的车祸做出一系列道德决策,类似于著名的“电车难题(trolley problem)”。

“电车难题(Trolley Problem)”是伦理学领域最为知名的思想实验之一,其内容大致是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你是否应拉杆?

研究人员对9个不同的因素进行了测试,其中包括用户更倾向撞到男性还是女性,选择拯救多数人还是少数人,牺牲年轻人还是老人,普通行人还是横穿马路的行人,甚至还会在地位低和地位高的人之间做出选择。

The Moral Machine中的一个场景示例:用户应该撞向路人还是障碍物?

来自233个国家和地区的数百万用户参加了测验,共计制定了4000万个道德决策。 根据这些数据,该研究的作者发现了一些较为一致的全球偏好(global preference):更倾向于拯救人类而不是动物、拯救多数人牺牲少数人、优先拯救儿童。

因此,他们认为,在为自动驾驶汽车制定法律时,这些因素应被视为政策制定者的“基石”。 但作者同时也强调,这项研究的结果绝不是算法决策的模板。

论文的协作者Edmond Awad说:“我们试图展示的是描述性伦理,即人们在道德决策中的偏好,但是,如果涉及到标准的道德规范时,该如何做出选择,这应该由专家来决定。”

数据还显示,不同国家的道德偏好存在显著差异。这与许多因素有关,包括地理位置(例如,欧洲和亚洲国家之间的差异)和文化(个人主义社会和集体主义社会)。

值得注意的是,虽然在未来的某个时间必须开展这些决策相关的工作,但自动驾驶技术仍有很长的路要走。 自主性仍然处于起步阶段,自动驾驶汽车仍然是原型,而不是产品。 专家们还说,虽然目前尚不清楚这些决定将来会以什么样的编程方式与车辆进行结合,但显然还是需要进行公众咨询和辩论的。

加州理工大学伦理+新兴科学小组主任Patrick Lin说:“由于自动驾驶汽车是第一个大规模融入社会的AI产物,所以在自动驾驶方面所发生的一些列事情都将为其它人工智能和机器人技术定下基调。”

文化如何影响道德偏好?

Moral Machine调查得出的结果表明,在涉及到这些道德困境时,有一些共同的原则。但该论文的作者还发现了一些偏好上的差异,这些差异遵循着一定的分类。这些差异没有一个是违背核心原则的(例如少数服从多数的原则)但它们确实在一定程度上有所不同。

研究人员发现,在亚洲和中东的一些国家,比如中国、日本和沙特阿拉伯,“保全年轻人而非年长者”的倾向“不那么明显”。与来自欧洲和北美的人相比,这些国家的人也相对较少地关心保全“高净值”个人。

这项研究的作者认为,这可能是由于个人主义文化和集体主义文化之间的差异。前者强调每个人作为个体的独特价值,“更倾向于保全更多数量的人。”与此相反,在保全年轻人方面更弱的偏好可能是集体主义文化的结果,“强调对社区中年长成员的尊重。”

作者认为,这些差异表明,“地理和文化上的接近可能会让不同国家的人在机器伦理方面有一致的偏好。”

然而,还有其他因素与这些差异相关,不一定是地理上的。例如,不那么富裕的国家,它的人均国内生产总值(GDP)较低,民间机构较弱,更可能撞守规矩过马路的人而不是乱穿马路的人,“大概是因为他们遵守规则的经验较少,对不守规则的惩罚也较轻”。

不过,作者强调, Moral Machine的结果绝不是对不同国家的道德偏好的最终评估

首先,这个测试是自选的,参与者都是相对懂技术的人。测试的结构也消除了细微的差异。参与者只有两个明确的选择:杀死这些人,或杀死那些人。在现实生活中,这些决定都是概率性的,每个人都会在不同严重程度的结果中做选择。(“如果我令这辆卡车突然转向,很有可能以低速撞到那个行人”,等等。)

尽管如此,专家们表示,这并不意味着这样的测试无关紧要。Patrick Lin说,这些困境的人为性质是“特征,而不是bug”,因为它们消除了“混乱的变量,以便集中于我们感兴趣的特定变量”。

他补充说,即使汽车不会经常在撞到物体X或物体Y之间做出选择,它们仍然需要权衡相关的决定,比如给这些东西留出多宽的空间。这仍然是“一个基本的道德问题,”Lin说,“所以我们现在需要讨论这个问题。”

一台摄像机透过谷歌自动驾驶汽车的格栅窥视。Photo by Sean O’Kane / The Verge

将道德规范转变法律

但在这些问题上,我们离需要立法还有多远?公司什么时候开始将道德决策编码到自动驾驶汽车里?

对第二个问题的回答是,现在已经有了。这是真的,因为每一个算法都会做出某种决定,其中一些会产生伦理上的后果。但从更具体的角度来看,即使相关公司不愿意公开谈论这些算法偏好,也很可能会编码粗略的偏好。

例如,早在2014年,Google X的创始人 Sebastian Thrun就表示,公司的原型自动驾驶汽车将在发生碰撞时选择撞击两个物体中的较小者。在2016耐能,谷歌的Chris Urmson表示,该公司的无人车将“尽量避免撞倒无保护的道路使用者:骑自行车的人和行人”。同年,据报道,梅赛德斯-奔驰的一名经理表示,该公司的自动驾驶汽车将优先考虑撞车事故中乘客的生命安全,但该公司后来否认了这一说法。

公司不愿意公开这些决策是可以理解的。一方面,自动驾驶系统还不够复杂,无法区分年轻人和老年人。最先进的算法和传感器可以区分明显不同的东西,比如松鼠和骑自行车的人,但它们无法区分比这更细微的东西。此外,公司不管说他们优先考虑谁的生命——人或动物、乘客或行人——都是会让某些人感到不安的决定。这就是为什么说这些都是道德困境:没有简单的答案。

欧洲政策研究中心(Centre for European Policy Studies)高级研究员Andrea Renda表示,私营企业在这些问题上做的工作最多。“私营企业正在对此采取行动,但政府可能发现这还不够,”Renda说。在欧洲,欧盟正在制定道德准则,并可能通过“命令和控制立法,或通过认证和联合监管”来执行这些准则。在美国,国会已经公布了两党共同制定的潜在监管原则,但联邦监管可能会缓慢进行,目前尚不清楚议员们是否想要深入车祸的道德偏好这一泥沼。

Renda 警告说,尽管公众需要参与到这些辩论中来,但“仅仅依靠自下而上的协商将是极其危险的。”他说,各国政府和专家需要做出选择,重申人权。

但在德国,我们已经看到了新的问题。德国是目前唯一一个对自动驾驶汽车的伦理选择提出官方指导方针的国家。议员们试图剖析电车问题的棘手之处,指出所有人的生命都应该被平等对待,任何基于个人特征的区别,如年龄或性别,都应该被禁止。

但正如MIT的研究人员指出的那样,如果这一选择得以实施,将有悖于公众倾向于拯救年轻人多于老年人的偏倚。他们会问,如果政府推出这项政策,它将如何应对这种集体反对,“当自动驾驶汽车在道德困境中选择牺牲儿童的那一天,这种抵制将不可避免地发生。”

Awad说,这种冲突是“不可避免的”,但必须成为这个过程的一部分。“重要的是要让这些决定变得透明,”他说,“要公开说明正在做什么。如果这一切都发生在幕后,只对人们说’相信我们’,我认为这是不会被接受的。每个人都需要参与到这些决策中来。”

原文链接:

https://www.theverge.com/2018/10/24/18013392/self-driving-car-ethics-dilemma-mit-study-moral-machine-results

文章分享自微信公众号:
新智元

本文参与 腾讯云自媒体分享计划 ,欢迎热爱写作的你一起参与!

原始发表时间:2018-10-25
如有侵权,请联系 cloudcommunity@tencent.com 删除。
登录 后参与评论
0 条评论

相关文章

  • 10月AI热文:强化学习、定制合成人脸、道德机器等

    谷歌正试图通过新的Active Question Answering(Active QA)智能体来模仿这一点,这是一个使用强化学习来训练AI进行问答的系统。当你...

    新智元
  • MIT探索了自动驾驶汽车中的经典伦理问题

    预计到2020年将有多达1000万辆自动驾驶汽车进入公共道路,当他们这样做时,他们将做出艰难的决定。可以理解的是,建立能够解决经典“电车难题(伦理学悖论)”的决...

    AiTechYun
  • 我们可以教会机器人道德吗?

    译者:Amber LI 本文长度为3524字,预估阅读时间7分钟。 引言:我们并不习惯关于机器做道德决定的想法,但它们能自己进行常规道德决定的那天正在逐步逼近...

    iCDO互联网数据官
  • 深度 | 人工智能的盲点在哪?

    编者按:当我们都在关注人工智能对生活带来的积极影响时,另一种担忧的声音正在产生:自主智能系统在许多社会机构早已司空见惯,但我们却无法找到真正能评估其持续性影响的...

    AI科技评论
  • 选错导师误终身!Nature大型调查 :1/4博士生想换导师

    当代博士生到底有多苦,学术不好搞、人际不好处、工作不好找、钱就不好挣,逐渐自闭、逐渐抑郁。

    新智元
  • 20秒预警,拯救127个孩子!四川泸定6.8级地震,能用AI预测吗?

    ---- 新智元报道   编辑:Aeneas 好困 【新智元导读】四川泸定的6.8级地震中,地震预警系统起到了大作用。不过,为什么现在的人工智能还不能预测...

    新智元
  • Nature评选2016年十大杰出科学人物

    大数据文摘
  • 腾讯用AI种黄瓜,程序员忍了四个月,终于拍了它

    今天要介绍的是一筐黄瓜。 这可不是一筐普通的黄瓜。它们是由腾讯人工智能实验室AI Lab团队的成员协同国内外农业专家和学生,使用人工智能AI在荷兰一间温室里种...

    腾讯大讲堂
  • Wired 数字世界最有影响力 100 人:近三分之一从事人工智能

    【新智元导读】科技杂志Wired日前公布数字世界“最有影响力100 人”,其中近三分之一与人工智能有关。其中,马斯克第1、扎克伯格第2、马化腾排第4,马云第6,...

    新智元
  • OpenPilot:禁令后Comma.ai开源全部软硬件(附源代码下载)

    【新智元导读】上个月,天才黑客George Hotz在推文上表示,由于NHTSA的审查,他将取消智驾产品CommaOne。当所有人都觉得到此为止,并唏嘘智驾初创...

    新智元
  • 大脑芯片公司Neuralink计划在人脑内植入芯片,他们到底想干什么?

    2019年7月,埃隆·马斯克(Elon Musk)宣布,他的公司正在研发一种能够向大脑中植入细线状植入物的机器。

    AI科技大本营
  • 详解AI加速器(最终篇):给想进入赛道的玩家一些建议

    来源:机器之心本文约2400字,建议阅读5分钟本文我们将聚焦 AI 加速器的解决方案及行业前景等内容。 谁的 AI 加速器解决方案最好? 显然,这个问题非常复...

    数据派THU
  • 详解AI加速器(最终篇):给想进入赛道的玩家一些建议

    选自 Medium 作者:Adi Fuchs 机器之心编译 机器之心编辑部 在上一篇文章中,前苹果工程师、普林斯顿大学博士 Adi Fuchs 介绍了这一领域内...

    机器之心
  • 通过云平台之间备份解决SaaS数据保护问题

    很多企业在云平台运行和存储的数据并不像他们想象得那么安全。因此需要了解其原因,并找出需要了解的内容,为其软件即服务(SaaS)应用程序选择最适合的基于云计算的备...

    静一
  • 1分钟链圈 | 比特币跌破7300美元,刷新一个半月低点!清华x-lab主任毛东辉:链上大学让学生学习更自由

    区块链大本营
  • 上海教训:我们如何预测身边即将到来的“疯狗浪”?

    大数据文摘出品 2022年过去不到4个月,全球已经接连经历了病毒变异、战争、股市跳水等前所未有的危机,不少人直呼,现实已经一年比一年更加魔幻。 最近爆发的上海...

    大数据文摘
  • 图神经网络01-基于Graph的机器学习简介

    从上面一些例子我们可以看出,Graph的概念存在于这个世界的每个地方,我们每个人都或多或少地在Graph扮演某个角色或者正在利用Graph带来的便利,目前随着图...

    致Great
  • 洞见 | 李飞飞与盖茨夫人对话人工智能:有了多样性行业才能健康发展AI

    梅琳达和李飞飞 AI科技评论按:虽然人工智能是当下最火热的话题,但它却遇到了多样性问题,业界推动该技术前进的人大都拥有相同的背景。对李飞飞来说,这样的情况令人担...

    AI科技评论
  • “GAN之父”:当初为了深度学习买GPU,现在后悔没多挖点比特币

    用户1737318

扫码关注腾讯云开发者

领取腾讯云代金券