首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

自动驾驶的“电车难题”是一个错误的提问

导读

3月22日,由中国政府和欧盟委员会共同主办的第三届中欧法律事务对话在北京亚洲大酒店举行,22日上午对话会的议题是人工智能伦理与法律责任,与会嘉宾就欧盟人工智能法律责任规定,中国法律和政策相关规定,欧盟人工智能伦理指南等话题进行发言。在听过与会发言之后,赛迪智库政法所的专家介绍了对自动驾驶面临的“电车难题”的几点看法:

自动驾驶的“电车难题”通常是这样一类问题:如果一辆自动驾驶汽车的前面两个不同方向上有不同的人,比如一个方向是老人另一个方向是妇女,一个方向有1个人另一个方向有5个人等等,这辆自动驾驶汽车如果无法躲避,应当做出何种选择,依靠何种算法规则做选择,以及如果造成损害应当承担何种责任。这一问题隐含了,汽车只能选择撞一个方向的人,或者最多加上撞向其它地方自伤这个选项。这一问题无论怎样选择都会面临伦理道德困境,因此常被学者认为是自动驾驶必须回答的伦理问题。

但其实这个提问并不正确,并不应该要求算法设计者考虑这种情形下的选择判断问题,这种极端情形应作为意外事件处理,原因如下:

01

在人工驾驶状态下,是依靠本能反应处理这种情况。就笔者所知,这一问题所描述的场景并未在真实世界出现过,这只是伦理学者讨论理论问题时的一种假设。在真实世界里驾驶者很少会仅仅有这样的两种选择,即使真的出现这种情形,驾驶者无法躲开又无法提醒前方的人避让,那么他只能依靠本能的反应,并没有时间做出理性的思考。因此这本就不是一道应该用理性解决的问题,这样的情形下,理性思考是没有用武之地的。

02

自动驾驶真正应该考量的问题是,如何在市场可以接受的成本下,做出最安全的车。对安全要求越高,则车辆的成本也会越高。现实中车辆的成本是受到市场约束的,因此不可能追求极致的安全。需要通过严格的车辆国家安全技术标准为自动驾驶汽车设定一个符合公众预期的安全标准,使自动驾驶的事故率可以大大低于人工驾驶,确保自动驾驶汽车比人类更有能力去应对极端交通风险场景。

03

符合国家安全技术标准的自动驾驶汽车,在没有人类干预的情况下,如果出现了“电车难题”中假设的极端情形,应被认定为意外事件。安全性再高的车也无法将意外事件的发生概率降为0,如果在“电车难题”设定的场景下,车况正常的自动驾驶汽车无法做出安全应对,则说明这种情况超出了车辆安全能力的边界。安全能力的边界是在标准制定过程中,通过协商妥协确定好的,超出边界的意外事件既不应苛责机器也不应苛责人类。因此即使出现“电车难题”这种场景,也没有人应当为此承担过错责任,就如同车行上方刚好落下一块巨石的场景一样。

04

“必须有牺牲时,该牺牲哪一个”的提问是错误的,正确的问法是“可以减少牺牲时,应当如何选择”。要求机器或者设计者选择牺牲哪一个是没有意义的,我们只能通过技术的进步,标准的提升,不断地减少牺牲和损害。但有一个问题是有意义的,就是当车辆可以决定造成一方牺牲或者一方受伤时,车辆应当如何选择。传统车辆的驾驶决策都出自于人类,车辆只有被动安全措施,因此车辆设计天然倾向于保护车内人的安全。但自动驾驶汽车有了主动安全措施,有能力为车外人提供一定的保护,因此这时优先保护车内人并非具有绝对正当性。在车辆可以选择一个受伤或者一个牺牲的结果时,算法应当指向那个更有利于保护生命的选择。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190407A04TAH00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券