首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

MIT发布无人驾驶道德准则调查报告,4000万个决策为AI提供参考

科技日报记者 张梦然

英国《自然》杂志24日在线发表的一项人工智能(AI)研究,美国麻省理学院报告了全球道德偏好调查,调查内容为无人驾驶汽车应如何在无法避免的事故中决定拯救哪一方。研究结果结合了全球参与者贡献的4000万个决策,其为制定社会普遍接受的人工智能道德标准提供了重要借鉴。

无人驾驶汽车不仅要能导航路线,还要在不可避免的事故中自行应对道德困境。因此,需要制定一套道德准则来指导AI系统处理这类场景。如果无人驾驶汽车必将投入大量使用,就必须先确定社会普遍接受的道德准则。

麻省理工学院研究团队此次搭建了一个名为“道德机器”的大型在线调查平台,用来统计全球公民的道德偏好。实验将参与者置身于一个不可避免的事故场景中,事发时一辆无人驾驶汽车正行驶在双行道上。每个场景都会让行人和乘客身处不同的危险,而汽车可以选择不变道,或急转到另一条道上 。参与者必须选择救谁并决定汽车的前进路线。这项实验共记录了约4000万个此类决定。

研究人员识别出了许多共同的道德偏好,诸如救多数不救少数、救年纪小的不救年纪大的、救人不救动物。同时还发现了不同文化之间的道德偏好差异。例如,来自中美洲和南美洲国家、法国以及前法属海外领地和现法属领地的参与者,呈现出先救女性和强壮个体的强烈偏好。而来自收入差距较大的国家的参与者在决定救谁时,往往会考虑其社会地位。

科学家最后指出,放手让汽车进行道德抉择之前,有必要进行全球性的对话,将我们的偏好告知那些道德算法设计公司以及执行监管的政策制定者。

来源:科技日报 文中图片来自网络

编辑:陈小柒

审核:王小龙

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181101B014ZK00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券