事故中AI先救乘客还是行人?约4000万人参与调查

未来人工智能(AI)在极端情况下会拥有和人一样的道德判断吗?如果未来无人驾驶汽车要大量投入使用,必须为它确定社会普遍接受的道德标准才行。

英国《自然》杂志日前就发表了一项有关方面的人工智能研究:美国麻省理工学院(MIT)以“在无法避免的事故中,无人驾驶汽车应如何作出决定拯救哪一方”为调查内容做了项全球道德偏好调查。

该研究团队搭建了一个名为“道德机器”的大型在线调查平台,参与者可置身于一个不可避免的事故场景,事故中行人与乘客身处不同的危险中,参与者可选择驾驶路线决定究竟救谁,该平台总共记录了约4000万个参与者决定,该结果将用于为制定社会普遍接受的人工智能(AI)道德标准提供重要借鉴。

其中,研究人员将道德偏好给予分类,譬如救多数不救少数、救小孩不救老人、救人不救动物等,同时还发现了不同文化间的道德偏好差异:来自中美洲和南美洲国家、法国以及前法属海外领地和现法属领地的参与者,更偏向于先救女性和强壮个体;而来自收入差距较大国家的参与者在决定救谁时,一般会考虑其社会地位。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181103F0BOGC00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券