首页
学习
活动
专区
工具
TVP
发布

无人驾驶汽车紧急情况处置的道德伦理规范

一、决策方式

目前,无人驾驶汽车涉及伦理道德的重大挑战是汽车对紧急情况的回应。当面对突发意外,无人驾驶汽车使用数据和软件,而不是人类的直觉,来计算出最佳处理方法。为了赋予车辆合宜的反应能力,程序员艰难地通过量化数值的途径来保障生命财产。

当通过系统软件开车时,人类司机不再需要在车祸发生瞬间,作出“留存哪方性命”的选择。这时经过程序员的提前预设,软件的决策逻辑将发挥作用。经过特别设计,软件能针对事故作出妥当回应,把破坏程度降到最低,想要制造这样的软件,我们人类社会必须首先定义好什么是“理想的处理方式”。在此过程中,就涉及人类如何判断生命与财物的价值。

给生命与财产赋予价值的做法提出一个让人不太舒服的问题:如何界定价值?谁来界定?车内的乘客有既定的价值,路上的行人也有。车祸中出现的可接受的处理结果包括,财物损坏或车辆损坏。如果无人驾驶汽车在编程时被写入的指令是“只将财产破坏降到最低”时,我们难以想象这样的指令执行起来会是何种情形!

二、“电车难题”

当谈论无人驾驶汽车的价值与潜在影响时,总会有人举手提出以下问题:“即将发生致命事故时,无人驾驶汽车是觉得撞向路旁的两名婴儿呢,还是牺牲车内的五名成人昵?”这类道德选择问题还将会在新的情况中被再次提出,但是核心问题出自经典的“电车难题(Trolley Problem)”,一道在过去几十年中的哲学课堂上被热议的问题。

1967年,电车难题由英国哲学家菲利帕福特(Philippa Foot)提出,是一道描述与道德相关的难题:电车司机只能沿着轨道行驶电车,轨道的一端有五个人在工作,另一端有一个人,无论电车开向哪一端都会撞死相应的人。大部分读者经过简单计算,认为五条人命比一条人命有价值,觉得这道题目非常简单。但电车难题之所以变得更复杂,是因为其他畸形的选择最终将会导致情形陷入两难的境地。

电车难题并不只是针对无人驾驶汽车。据新闻报道,2017年6月在纽约北部的伊萨卡中心城区,一辆卡车从陡峭的山坡滑向伊萨卡中心区,司机已经将刹车踩到底了,然而车辆并没有停下的趋势。司机将面临着痛苦的抉择,这两吨载重量的失控卡车将撞向何方?最终司机避开了一群建筑工人,选择将卡车撞向附近的咖啡厅,27岁的阿曼达当场身亡,她是一位年轻妈妈,正利用夏天这个周五下午担任侍应生赚些外快。

三、价值衡量

一位学者把大众关心的道德问题描述如下:“在车祸中,自动汽车的主要弊端是不同于人类司机可以即时思考如何处理碰撞,自动汽车的决策来源于程序员提前设置好的程序。”面对这样的表述,我们不禁会问,为何人类凭直觉作出的碰撞决定就可以被接受,而汽车的碰撞处理由于提前被设置好,就成了道德问题?第一,无人驾驶汽车的驾驶更为理性,能够快速进行风险和利益分析,这比一个自私、疲惫的醉汉的决策要好得多,第二,无人驾驶拥有360度的感知器,掌握的信息也更全面。

在我们看来,无人驾驶汽车的设想中的道德问题并不是基于“驾驶过程中,计算风险和价值哪个优先”的事实。所谓的道德同实际上是因为这些计算是由人工智能得出的结果。最关键的问题并不是无人驾驶车辆是否有道德,而是预先设置的车祸处理方式的逻辑是怎样的。

面对危险时,每个人心里都会衡量风险与收益的关系。有人认为最好的方法是即使代价是牺牲几个人的生命,车辆也应当尽量避免对司机的伤害;另一些人的反应可能是避开所有人群,牺牲自己与车子。

大部分有经验的司机知道,在驾驶过程中,他们持续地作出一连串涉及衡量性命财产价值相关的决定。整个过程通常是无意识的。我们当中的有人可能不止一次要作出紧急的决定,避免撞向小生命,比如一只横穿马路的松鼠。我那理性的大脑不会发问道“这样做是否值得?”,事实上,我使车子转向,避开松鼠的举动表明我内心是计算过的。松鼠的生命比起车子猛然转向可能引起失控和事故的小概率风险,更有价值。

我的风险价值计算有时也能变得十分复杂。如果我的车后排坐着三个孩子,我可能不会选择忽然转向,决定测试一下松鼠的运气。如果当时的道路结冰路滑,行人拥挤,我的道德选择很有可能把车子内外的人的生命也考虑进去,价值显然比松鼠更高。这样,我就不会进行转向。如果假想的松鼠被换成只狗,或是一位拄着拐的老人,等等,司机的计算可能会更复杂一些。

四、规范指引

我们当中的有一部分幸运儿,暂时还没有遇到重大交通事故,没有被迫当众作出如此痛苦的抉择,也没有在抉择中展现出我们在处理不可避免的交通悲剧时的反应方式。由于无人驾驶汽车迫使我们公开作出这样痛苦的抉择,便激起了一阵惶恐。更具挑战性的是,在面对紧急情况时,无人驾驶需要我们把人类所认同的道德规则用于指引系统作出决策。

无人驾驶汽车需要我们认同一系列用于指导车辆紧急决策系统的道德准则。在公平民主的社会中,这套道德准则被大众认同,无人汽车制造企业也自觉遵守。不仅是应对悲剧发生的决策应当得到大众认同,当灾难发生时,汽车灾难的指导手册应当是公开透明,经得起事故考验的,类似于空难发生后航管局官员采取的步骤,在发生车祸后,无人驾驶汽车的指导手册“黑盒子”应当受到保险专业人士和执法部门人员的检查,他们最终会分析软件当时都作出了怎样的决策,采取了哪些行动。

当这些道德准备变成了法律,结果将产生新的道德滑坡和犯罪。想象一下,假如有黑盒子显示,汽车公司把车子的价值计算原则设置成车内人员的生命价值高,车外人的生命价值为零;或者车祸后,黑盒子记录显示,因为预先写入程序时的疏忽,软件被设置为“最小化车子的损坏程度,而不顾其他”。

自动驾驶汽车将会挑战我们的价值观和可靠性,并把驾驶从凭直觉转换到单纯依靠数据和逻辑,随着无人驾驶技术的普及,

我们都确信在未来的5年,10年,15年,无人驾驶时代终将来临。一方面,无人驾驶车辆可以避免车祸中的人为因素,大大提高安全性,但另一方面,这一技术仍然需要解决一个严肃的问题。这便是,是否要给予机器人决定人类生死的权利。

作者:庄宇

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180208G0BQZA00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券