首页
学习
活动
专区
工具
TVP
发布

自动驾驶汽车的道德难题

关于人工智能的大规模商用项目,可能没有什么比自动驾驶汽车离我们更近了。由此而来的一些争议已经不容置疑的摆上了台面。

比如遇到紧急情况来不及刹车时,是选择急转弯造成乘客受伤还是选择撞向无辜的行人?如果设定为宁可让乘客受伤也不能伤害路人,这样的车你会买吗?反正我不买,祸祸谁呢?反过来如果选择把无辜路人舍出去,你觉得社会舆论会让这样的车上路吗?

再聊聊人工智能的难处。还记得阿莫西夫的机器人三定律吗?

第一定律:机器人不得伤害人类,或者因不作为而使人类受到伤害;

第二定律:除非违背第一定律,否则机器人必须服从人类的命令;

第三定律:在不违背第一及第二定律时,机器人必须保护自己。

三定律定义严密,层层递进,但依然解决不了上述的难题。

试想,把这三大定律输入驾驶汽车的人工智能,如果遇到上边说的紧急情况,人工智能要如何选择?紧急转弯就会因作为而伤害人类(乘客),不转弯会因不作为而伤害人类(无辜路人),如果我是人工智能,不如干脆死机算了,太难了。

大家不难看出,以上不过是古老的电车难题的翻版而已,只是把人换成了人工智能。但如此就会让自动驾驶汽车上不了路了吗?当然不会,有商业推动的科技进步是绝无停止甚至倒退的可能,自动驾驶的时代注定会很快到来。

那么没有绝对正确的道德算法怎么办?其实并没有想象的那么难,就像汽车刚刚诞生时的红旗法案:汽车行驶速度不得超过时速5英里,而且前边要有一个人举着红旗开道示警。我们现在会觉得这个法案非常愚蠢,因为它阻碍了人类的进步,但废除了红旗法案又的确造成了车祸的发生。

这是悖论吗?当然不是,其实人类绝大多数的进步都伴随着不同程度的副作用,但进步从未停止。从来都是在政府、民众和资本的争取和妥协中艰难的寻找那个基本公正的平衡点,并小心地维持,直到某一时刻平衡被打破。接下来继续争取、妥协直到找到下一个平衡点,莫不如此。那么,你觉得自动驾驶会例外吗?

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190719A02RT400?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券