伦理x算法:无人驾驶的道德困境

一项科技在社会中的成熟应用离不开多方面的基础建设,不仅包括技术研发上的突破,量产化的实现,还应含括许多软性的部分。

所谓技术之伦理、道德、立法,听上去似乎离生活很远,抽象又笼统,但它们恰恰不可或缺地托起了一项科技可以应用于人类生活的根本。

科学上“能够的”并不是伦理上“应该的”;它们确保技术不是生硬的,而是带有其社会责任,真正应用来为人类生活造福。

尽管常在新闻中见到对无人驾驶技术充满乐观的报导,一起美国亚利桑那州Uber自动驾驶车撞死骑车女子的案例(2018年3月20日)就犹如一盆冷水浇在许多人对新科技的狂热期待上。

想以无人驾驶为例,聊聊人工智能所面临的一些道德困境。为什么自技术概念被提出这么些年来,它始终无法迈出走入生活的最后一步。这不仅是技术的原因,是因为无人驾驶的概念里内嵌着一些无法绕过的道德困境。

根据案发视频显示,“在撞击发生之前,死者首先沿路边骑行,突然下车推车横穿马路(注:此处离人行道约91米),她推车至少走了一个车道后,被刚经过两根灯柱且本身开着大灯的无人车撞倒,送往医院后不治身亡”

(此处以及接下来的有关技术方面分析引用自公众号:中科院物理所,苏涛所写的推文《自动驾驶真的靠谱吗》)

调查披露的事实表明,“死者在非人行道且标有警示标志的位置过马路,根据当地法律,此时涉事无人车享有路权。死者横穿马路违法,负全责,她的死或是咎由自取。”

所以说Uber无人驾驶车就无罪么?

“让我们再次回到案发之前,注意当死者横穿马路被Uber无人车撞到之前,推着自行车至少走了一个车道,无人车在事发前3-4秒就应发现死者。”

“当时无人车以约65km/h的速度在道路上行驶,走三秒的距离大概是54米,也就是说此时最少距离死者约54米。如果当时刹车,应能在距离被撞者约2.4米的地方停下来。”

也就是说,无人车完全有能力在悲剧发生前就发现死者、做出避让并免除惨案的发生。但它却未做出任何规避动作,这是什么原因呢?

原文中分析了两种可能,猜测一:无人车的“眼睛”出现了问题,没有发现行人导致惨案。也就是无人车上所装载的用以代替驾驶员眼睛的各种感知传感器(例如视觉传感器、雷达传感器和激光传感器等)发生了技术故障。

随之出现的讨论中,对无人驾驶持乐观态度的人们问道,假设当时是人类司机在驾驶,就一定能避开吗?我们能容忍人撞死人,为何不能容忍无人驾驶汽车撞死人呢?

因而,不能因噎废食。

真是这样吗?

我们能容忍人撞死人,是因为人类驾驶员有应急反应极限,我是人,你是人,我们都明白这点。

我们不能容忍无人驾驶汽车撞死人,是因为它在编程阶段已被设计成“在这样的情况下,人类A应当死亡”。

无人车商业化后,很大可能将会有一段时间道路上将是无人车、有人车、非机动车、行人的混行。体系里只要还存在无规则、不可控的人为因素,交通事故就不可能完全避免。

与人类相比,机器不存在所谓的反应极限,它只是在执行:if(情况1为真)(执行if指令;)(else (执行else指令;))。因而,当无人车在突发情况下判定撞击为“真”,已经无法避免,它会直接根据被预设的指令执行操作。

这预设程序该怎么编呢?你的无人车是否应该为了挽救五个行人的生命而选择牺牲你的?(设计算法的思路类似,在事故必然发生的情况下执行最大概率能将对人类的伤害降到最低的操作)

我们于是遇到了电车难题的无人驾驶版。伦理学领域著名的思想实验:一辆失控的电车正驶向不明原因被绑在轨道上的五个人,马上会将他们碾压致死。“幸运”的是此时你可以选择拉动一个拉杆,让电车开到另一条轨道上,那里只被绑着一个人。考虑以上情况,你是否应该拉动拉杆?

我们从未就“是否应该拉动拉杆”得出一个统一答案。伦理学存在不一样的道德理论/准则,有关“怎样做才是正确的”的讨论无非在探讨哪一个道德准则更优,而这是没有确切答案的。

换言之,把这样的困境作为思想实验摊开来讨论都不知道让谁死才是道德正确,无人驾驶如何就能绕过这点做决定了呢?

如果它遵循功利主义(Utilitarianism),以最小伤害为准则,这样的无人驾驶车你敢坐吗?如果它被预设为始终以保护车主为最优先,有这样无人车的道路你敢走吗?

最后,看到过网友评论:“整体而言,交通法规规定的很合理,属于典型的善法。所以依法操作就是最合理,最合适的。

回过头再看亚利桑那州的事故,会如原文分析的,是Uber无人车的“眼睛”出问题了吗?

“事件发生后,基本所有相关公司,无论是做计算机视觉的还是汽车供应商都坚称,他们的识别系统或汽车绝对能在当时发现死者。”也就是说这并不是一件技术难度很大的事,多种不同的传感器要同时出故障也是小概率事件。

于是原文作者开了一下脑洞,做了一个大胆猜测:假设Uber无人车当时并未出现技术故障(传感器正常工作,“眼睛”没有出任何问题,决策模块运转正常,完全来得及做出正确的抉择——紧急制动),但它却选择撞了上去,而非刹车或减速。

因为根据交规它拥有路权它可以合法杀人。

虽然大胆,但不无可能。

事故发生的两周内Uber已经与死者家属达成和解,外人自然是无从深究了。但首例无人车致死事件给我们留下的警示应该不止于此,对智能预设的道德准则得谨慎更谨慎些呐。

猜测二:无人车的大脑,也就是内置的人工智能(AI)出了问题,导致事故的发生。

AI是由算法构建起来,再通过大量数据进行训练,例如谷歌的Waymo在路上已经跑了800万公里就有这个原因。

“在这种训练的过程中,有个重要的衡量标准,就是人工干预的次数。”和人类学车是一个道理,坐在身边的教练干预的次数逐渐少了,便说明学员的技术慢慢驾轻就熟了。

据纽约时报披露的Uber内部报告,Uber的无人车平均每独立行驶13英里,就需要进行一次人工干预。而Waymo无人车的数据则是平均行驶5600英里,才要进行一次人工干预。

因而原文作者猜测道,也有可能是Uber无人车是位“新手司机”,它的大脑还未训练到位,才导致了此次事故。

于是我想到了另一件事。当未来无论是路测还是商业化使用的时候,再有类似事故的发生,而依法判定下来是无人车的过错。那么,谁该为此过错承担责任呢?

这个问题,比它听上去的更为重要。

首先,似乎算法设计师、程序员此类智能的创造者应该为此承担责任。但实际上,只有事故确实是由于他们编程时的疏漏或错误导致的,让他们承担责任才是合情理的。

如果导致事故的原因是一个已被告知的程序限制,那决定使用程序的人,也就是公司管理者才应该为此负责。

但我们不能忽略一个更形而上的问题,艾伦·图灵很早便启示过我们的,“机器能思考吗”,菲利普·迪克也另辟蹊径发问过的,《仿生人会梦见电子羊吗》?这个问题叫作,人工智能的自主性(个体能按自己的意愿,自发地产生行动)可以达到什么程度?

再回看数据训练这件事,无人车的智能系统被构建成具有深度学习能力且被允许自我发展的形态,它在大量累积的数据与人工干预中学习。

最终导致它拥有一定的自主性,它从自己的训练和过往经验中总结出一套自己在某些情况下该怎么做的规律,一些超过它原始程序编制的学习归纳结果。

在这种情况下,设计它的程序员与决定使用它的管理者已经不再能控制或预测它在特定情境下会作何选择。它原始的算法已经不再能决定它的行为。

假设在事故中,它的操作决定并非失误,没有技术障碍,是它在充分“理解”了当下的情况与可能会导致的后果,有它自己的原因,做下了那个事后被我们判定为“错误”的决定。我们让程序员和管理者出来为此承担责任,这真的合理吗?

自主的机器本身理应为自己的错误决定负责,但,我们能惩罚一辆犯错的无人车吗?

这件事很重要是因为,当致死事故发生的时候,可以合理地追溯到某个体应当为该生命的死去负担责任,是对生命本身价值最根本的尊重。这也是西方正义战争理论(Jus ad bellum)的核心论点,一场战争是否是正当的、能否被允许发动的最根本条件之一。

“战争中的杀戮与谋杀之间的区别就在于它的代理性和象征性,及由此引起的那种由杀戮者所属的政治单元必须承担的象征责任。”

其实理解起来并不难,未来某一天无人车再导致致死事故,却无法公正地追溯谁应该为此生命的逝去负责。一个或多个生命无意义地死亡了,多方涉事公司总有辩驳空间与他们无关,我们又无法惩罚一辆无人车,只好当成是探索智能道路上的意外处理。

这是对生命根本上的不尊重。

在这样的伦理环境下心急火燎地为无人车技术辩护,一往无前的气势要将它商业化,我认真地觉得这是件不道德的事。

特别鸣谢kj学长友情提供的有趣插图

愿大家度过了一个愉快的小长假

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180407G1A0GG00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券