撞人还是撞自己?我们该如何面对这种道德困境?

雷锋网按:2016年,麻省理工大学媒体实验室的研究人员推出了一款名为“道德机器”的产品,这是一个致力于采集人类对于未来机器智能可能会遇见的各种道德难题的意见平台。它以游戏的形式,让玩家扮演旁观者的角色,在两个选项中做出抉择,选出最能接受的一项。随着时间的积累,这款游戏越来越现实出其价值。

试想一下以下这种情况:

一辆自动驾驶汽车如果往前继续开会对撞到行人,但是如果变道可能就会置车内的乘客于危险之中。这种困境甚至会上升到危机生命的程度,这个时候,机器该怎么抉择?

这些生死抉择可不是闹着玩的的,尤其这些决择都留给了自动驾驶汽车的时候。

在过去的一年中,有400万人参与回答了“道德机器”的许多场景中的道德问题 ,这些问题包括不同性别、年龄的行人,甚至还有其他物种,如猫和狗等横穿马路的组合场景。

在Uber测试车致死事件发生前一天,美国麻省理工大学的Iyad Rahwan教授,在迪拜举办的全球教育和技能论坛上公布了“道德机器”研究的首批成果。

结果出炉

Rahwan在论坛上表示,他的“道德机器”研究,是目前世界上规模最大的全球性伦理道德研究。

这一研究的结果将会在今年晚些时候公布。他的团队认为,汽车制造商和技术巨头可以使用他们的研究结果,从而更好地为他们的自动驾驶车辆,提供道德选择建议。

结果非常明确。Rahwan的研究小组发现,当涉及到“简单”选择时 , 比如打小孩还是打成人, 人们的选择都很果断,绝大多数人都赞成保护小朋友。

一个悲伤的事实是,过马路的行人年纪越大,就越不被重视。

但在行人和乘客之间的选择上,结果就有点灰暗了。大约有40%的人选择了让车冲向行人保护自己。

在更复杂的情况下,人们就更加犹豫不决。

对于选择撞向一个合法过马路的人,还是撞向两个非法过马路的人这一问题,选择两种情况的人比例相当。

想要总结出全球共同的道德价值观的困境是极其困难的,因此,“道德机器”的结果也分为不同的国家和地区。

制造道德机器

Rahwan说:“当我们将德国的结果与世界其他地区的结果进行对比,或者进行东西方对比时,我们发现了其中非常有趣的文化差异。”

例如,在德国,豪华汽车制造商梅赛德斯·奔驰的一位高管曾表示,梅赛德斯的汽车应该将车内乘客的安全放在第一位,这翻言论成了当地舆论的焦点。因此,在这类问题上,德国的参与者们往往比欧洲其他地区的人更果断,因为这些问题很显然已经经过了全国性的讨论。

“这些问题真正想要强调的是我们考量侧重点的不同,我们的不同的价值观也会相互冲突,这对我们的道德标准也确实产生了挑战,这样的情形逼迫我们必须一起解决这些问题,因为我们有所分歧。 ”

他补充说,这些结果证明,我们没法创造像科幻小说作家Isaac Asimov所说的“机器人三定律”这样的通用机器伦理:

“如果我们想让机器反应出我们的价值观,我们就得对我们的价值观有更深入的了解,我们需要量化这些价值观,并讨论出谁轻谁重。”

Uber自动驾驶测试车致死事件后,人们愈加相信,自动驾驶汽车能够,并将继续造成人们的死亡(尽管它们比起人类驾驶员它们有希望降低死亡的人数),因此,现在是时候开始思考这些机器应该做什么道德和伦理判断了。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180401C02CIV00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券