首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >MIT新研究|如何让自动驾驶汽车做出道德选择

MIT新研究|如何让自动驾驶汽车做出道德选择

作者头像
大数据文摘
发布2018-05-24 16:51:08
4960
发布2018-05-24 16:51:08
举报
文章被收录于专栏:大数据文摘大数据文摘

本文转自煎蛋网(jiandan.com),作者Quan

我们人类经常会犯这样那样的错误,不是把钥匙放在冰箱里之类的小错,就是把烤箱开上一整天这样的致命错误。我们通常会表现得鲁莽,健忘,自负,难以集中注意力——一些当我们以百公里时速驾驶一辆两吨重的金属机器穿越大街小巷时极为致命的特性。导致车祸的五大首要原因有四项可归结为人为失误。

电脑,相比之下,就有着极为务实的思维。它们以程序设定的,经过计算的方式来收集数据并作出反应。自动驾驶车辆已经显示出了相比人类驾驶更高的安全性。近几年人工智能方面的进步速度甚至使得一些专家预言2030年前人工驾驶将被非法化。

机械智能可能需要处理一些棘手状况:为了使某些人存活某些人必须得死。

不过,正如大部分司机所了解的,驾驶可能需要你在不到一秒内做出没有明确答案的抉择。

一只小松鼠冲到路上——你会冒着撞上其他车辆的危险突然转向,还是径直开过去并祈祷松鼠还活着?如果是狗呢?又或者是个罪犯?又或者是孩子?到底哪些生命是值得你冒险的?这些问题困扰着全球的研究者们。现在他们将从你们身上寻求答案。

“自动驾驶车辆现在已是大势所趋。”

麻省理工毕业生以及研究助理Sohan Dsouza告诉Digital Trends“这是件好事,大体上来说,因为它们每天将拯救无数正因人类司机的失误而丧失的生命并给无数没有驾驶能力的人带来独立的机动性。”

为了达成这个目标,Dsouza,Edmond Awad,以及他们在MIT媒体实验室的研究团队开发了道德机器,一个使使用者接触道德抉择,询问他们一辆自动驾驶车辆应当如何应对的平台。每个场景都提供了一些背景要素,包括受害者的年龄性别,他们的社会地位,以及他们是否遵纪守法。参与者被要求在13个两难境地中做出抉择。这些结果被作为众包数据堆积起来,并在未来用于伦理仪器的开发中。在做出抉择后,用户还可以比较其他用户的选择,甚至设计自己的场景供他人解答。

“我们的主要目标之一就是在公众中引发争论,”Dsouza说“特别是引起用户,制造者,保险业者以及官方人员间的对话”

不是所有的车祸都可以避免,而自动驾驶车辆需要处理你死或是我亡可能性依然存在,很像是经典的哲学问题,即著名的电车变轨问题。

人们琢磨电车问题将尽50年了。其中,一辆列车正行驶在即将撞死五人的原轨道上。你有一个开关可以使列车变轨,使其只会撞死一人。你会干预还是袖手旁观呢?

“对于这些可能性很少有基于实验的研究,”Dsouza说,“介于此,我们需要制造一个平台来生成大量具有复杂因素的场景并以一种易懂易用且身临其境的方式把它们呈现给用户,以此来建立人们如何看待及其所做出的道德选择的模型。”

道德机器已经收集了在1100万场景中人们的答案。尽管团队还没开始对这些数据深入分析,但他们已经发现地区差异暗示了未来研究路困难重重。“平均下来,来自西部乡村地区的参与者更为重视减小伤亡数目的价值——也就是说,相比东部人,他们更赞同功利主义的选择。“

揭示这些文化差异给未来的辩论与对话埋下了伏笔,这对于研究至关重要。“我相信我们已经造成了影响”Dsouza说“这些对话最终将帮助利益相关者在立法,责任评估,道德舒适感以及公共安全上达到平衡。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-10-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 大数据文摘 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档