首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

自动驾驶汽车,你会杀死那五个人吗?

电车难题是一个非常著名的伦理难题,它设置了一个这样的场景:

你驾驶着一辆电车行驶在轨道上。在它的前方,有五个人被绑在轨道上不能逃脱。如果电车继续行驶,就会碾压到他们。你可以拉一个拉杆,转到另一条轨道上,但在这条轨道上也绑了一个人。你有两个选择:

1. 不拉杆,五人死于你手。

2. 拉杆,一人死于你手。

你会怎么做?

自动驾驶汽车已经上路接受检测,将来也会碰到类似的难题,它也必须做出相应选择。

比如,一辆自动驾驶汽车在刹车失灵或者来不及刹车的情况下,正好道路前方有五人闯红灯,而车上有两名乘客。此时,自动驾驶汽车有两个选择:

1. 继续前行,撞死不遵守交通规则闯红灯的五人。

2. 为避开五人转而撞向路障,车上两名乘客丧生。

在这种情形下,人们应该期待自动驾驶汽车如何选择呢?

功利主义认为,从数量上看,五多于二。因此,五个人的生命比两个人的生命更加重要。这种情况下,应当牺牲少数人的生命从而挽救多数人的性命。但是,生命是无价的,五条命就一定比两条命更重要吗?

道德主义认为:人是目的,而并不是工具。因此,不能简单认为五个人的生命比两个人的生命更重要。在面对此类两难选择时,应当不作为。

有科学家对这类困境做过测试,结果显示:当乘客和行人数量比例是1:1时,即一名乘客和一名行人时,75%的受访者表示应该挽救乘客。但是当行人的数量增加时,受访者开始转变思想。如果有5名行人和1名乘客,还有50%的受试者表示应该救乘客。但当行人人数达到100人,而乘客是1人时,支持救乘客的受访者的比例下降到20%左右。但是,如果你就是那一名乘客呢?你希望自动驾驶汽车保护你还是保护行人?

自动驾驶汽车生产厂家该如何设置,才能让汽车做出公认为正当的选择?

腾讯在《人工智能:国家人工战略行动抓手》一书中提出了路径来尝试解决这一难题:

事前,为机器设定伦理标准,让智能机器的自主决策行为尊重人类社会的各种规范和价值。在事中或者事后:政府、公众共同参与,对人工智能的行为进行监督、审查和反馈,共同实现人工智能伦理,确保公平正义。

接下来的一个问题是:自动驾驶汽车已经按照人类希望的伦理规范行驶了,但仍出错了怎么办?

让我们看一个案例:2016年5月7日,在美国佛罗里达州,一辆特斯拉Model S在自动驾驶模式下发生车祸致死事件,引发了全球对自动驾驶系统的质疑。

事故当时的情形是这样的:事故死者Joshua Brown驾驶Model S与一辆正在转向的白色拖挂车相撞,导致车顶被削,驾驶员身亡。发生撞击时,车辆的Autopilot自动驾驶系统正处于开启状态。数据表明,当时Model S的时速为119公里/时,而路段限速为105公里/时,车辆处于超速驾驶状态。

特斯拉内部调查结果显示,Autopilot自动驾驶系统无法识别白色的拖挂车车体,将其错误识别为高架桥,导致自动刹车系统没有发生作用,车辆直接在拖挂车下方钻过,并造成车辆失控。

特斯拉曾警告驾驶者双手不能离开方向盘,并将注意力保持在驾驶上。很多驾驶者都以为特斯拉Autopilot是全自动驾驶系统,这是一个致命错误。经过了6个月的调查分析,美国相关部门宣布,没有证据表明Autopilot自动驾驶系统对事故负有责任,特斯拉无需召回。

那么,问题来了:自动驾驶汽车发生交通事故后,应当由谁来承担相应的法律责任呢?

德国的自动驾驶汽车法案做了这样的规定:司机参与驾驶的,依其注意义务和过错承担责任,否则制造商承担责任。

联合国教科文组织与世界科学知识与技术伦理委员会提出了一个可行的解决办法:采取责任分担的解决途径,让所有参与到机器人的发明、授权和分配过程中的人来分担责任。

腾讯最新力作《人工智能:国家人工智能战略行动抓手》对机器人伦理和法律问题有十分深入的探讨。该书为读者构建出整个人工智能的知识体系。人工智能技术的真相究竟是什么?人工智能究竟会给我们带来怎样的冲击和挑战?我们应该如何积极应对?又应该如何抓住人工智能带来的机遇?等等,书中都做了回答,是全面了解人工智能时代的必读作品。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180104A0PURN00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券