首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

我们可以用数据调查来创造有道德的无人驾驶汽车吗?

在不可避免的致命车祸中,我们希望无人驾驶汽车做什么?

研究人员发表了一篇论文《道德机器实验》来解决这个问题。

为了为这项研究创造数据,来自233个国家的近4000万人使用了一个网站,记录了在假想的无人驾驶汽车场景中,谁该救,谁该死的决定。这是典型的“电车困境”的一个版本——在紧急情况下,你必须优先考虑人们。

这个实验在广度和深度上都是前所未有的:我们现在对世界各地人们在这种困境中的偏好有了更好的认识。作者明智地告诫人们,不要把这些结果当作自动驾驶汽车应该做什么的简单指南。

我们的第一判断有多好?

机器比我们快得多;他们不恐慌。在最好的情况下,它们可能体现了我们深思熟虑的智慧,即使在悲惨的情况下也能有效地应用。然而,要做到这一点,我们需要从良好的数据开始。

在线测试是一种很好的方式来发现人们在做出判断之前是怎么想的。然而,显然我们不会迎合所有的偏见。作者省略了种族和国籍作为选择的理由,这是正确的。。道德偏好不应该只是品味。要想做出道德上正确的事情(想想你所面临的任何道德上重要的选择),你必须认真思考。

我们希望将人工智能的伦理依据建立在我们最好的判断之上,而不是我们最初的判断。

世界是“不稳定的”

这项研究使用了两种可能的困境:要么你肯定会撞到婴儿车,要么肯定会杀了狗。

但实际的决策涉及到重大的不确定性:你可能不确定前面的人是小孩还是小个成年人,是否会撞到他们,是否会伤害他们,高速转弯是否会起作用。

计算机也许能做出更好的预测,但世界本质上是“不稳定的”。这是一个大问题。在某些情况下,非此即彼的偏好只能告诉我们在危险的情况下该怎么做。

假设一辆自动驾驶汽车必须做出选择,要么让自己撞车,要么杀死自己的老年乘客,要么转向一边,杀死一个婴儿。

道德机器实验预测人们站在婴儿的一边。但它并没有说明我们有多愿意让一个人比另一个人多。也许这几乎是一场胜负难分的比赛,我们只是倾向于不伤害孩子。也许救孩子比救老人更重要。

对此的看法将会非常不同,这次调查没有给我们提供任何指导。但我们不知道如何衡量,比如说,杀死一个孩子的概率是10%,而杀死一个老人的概率是50%,除非我们知道救一个比救另一个重要得多。

由于无人驾驶汽车的每一个选择都是在不确定的情况下做出的,这是一个显著的差距。

但是调查不能告诉我们什么

道德机器实验的动机是可以理解的。编码下一代伦理人工智能的责任是一项艰巨的任务。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181031A0LW0T00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券