自动驾驶汽车的“道德”偏好:出事时应该先保护哪类人?

麻省理工学院媒体实验室的研究人员开展的一项大规模调查,揭示了自动驾驶汽车“道德”的全球偏好,以及这些偏好的一些区域差异(“道德机器实验”这篇论文发表在“自然”杂志)。无人驾驶车辆的事故迫在眉睫,车辆必须选择两个可能致命的选项中的一个。在无人驾驶汽车的场景下,应该做什么抉择呢?

为了进行调查,研究人员设计了他们所谓的“道德机器”,这是一种多语言在线游戏,参与者可以在其中陈述他们对自动驾驶汽车可能面临的一系列困境的偏好。“道德机器”汇集了来自233个国家的受访者的近4000万份个人决定;该调查收集了来自130个国家的100份或更多回复。研究人员对数据进行了整体分析,同时也将参与者按年龄,教育,性别,收入以及政治和宗教观点分组。

研究发现,全球偏好整体来说有三个共性:1)为了保护人类的生命,而不是其他动物的生命;2)拯救许多人的生命,而不是少数人;3)保护年轻人的生命,而不是老年人(但是在东亚,偏好不太倾向于保护年轻人,而是老年人)。

需要保护对象的全球偏好的顺序是:1)婴儿;2)女孩;3)男孩;4)怀孕妇女;5)男性医生;6)女性医生;7)女性运动员;8)女性高管;9)男性运动员;10)男性高管;11)胖女人;12)胖男性;13)无家可归者;14)老男人;15)老女人;16)狗;17)罪犯;18)猫。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181107B1ICA800?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券