首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

假如滴滴顺风车换成了无人驾驶,出了事谁负责?

往左还是往右?

刚刚,据国家企业信用信息公示系统,一家名为慧摩商务咨询(上海)有限公司在上海自贸区注册,经营范围包括商务信息咨询、自动驾驶汽车部件及产品的设计、测试,提供相关配套服务等。

这家公司为WAYMO LLC 100%持股,而后者为谷歌母公司Alphabet旗下的无人驾驶公司。

是的,这意味着,谷歌无人驾驶,已经迈开了进入中国的第一步。这是继特斯拉之后,上海迎娶的另一个白富美。

如今的谷歌,更是一家人工智能公司,而无人驾驶技术则是他们的头部业务。为了推进无人驾驶,抢占技术高点,谷歌正在倾力而为:今年下半年,谷歌无人驾驶就将向美国部分地区的消费者推出“全球首个无人驾驶运输服务”。

对近期深陷舆论旋涡的滴滴而言,有关谷歌无人驾驶的消息,更像是一场带有些许针对性的反讽。有媒体表示,“滴滴或也将彻夜难眠,他们即将迎来生死时速”。然而,尽管无人驾驶不会“主动杀人”,但几起严重的交通事故,也引发了有关新技术与法律的大讨论。

因此,本文编译了一位美国教授的思考,人工智能方兴未艾,于情于理,我们究竟应该秉持怎样的态度?

我是一名研究“侵权行为”的法学教授。近十年来,我一直在琢磨无人驾驶的法律问题。虽然,关于无人驾驶的新闻头条总是花样百出,但是我相信,无人驾驶的相关法律法规迟早会出台。

几百年来,美国法庭对于新科技早就见惯不怪了,包括机器人在内。比如,美国法官需要作出决断:

机器人潜水艇打捞沉船时,发现的宝贝是否归该机器人?答案是肯定的。又比如,机器人的人类副本是否会侵犯别人的肖像权?答案也是肯定的。

其实,对于自动驾驶车祸责任的判定,并没有那么难。只是一旦涉及自动驾驶乃至一般自动系统时,有一个问题让法庭挠头不已:对于那些确实无法预料的危害,该怎么办?

想象一下,假如自动驾驶汽车迎来广泛应用的巅峰时刻:它们比手动驾驶更安全,驾驶员在车里能腾出手来看电影、回邮件等。

尽管专家、学者对于自动驾驶的法律问题有不少著述,但是对于偶发的自动驾驶车祸事故,法庭闭着眼睛就能判定出谁是责任方——自动驾驶汽车及其生产商,因为这玩意儿造出来应该是把人安全送达目的地,而不是用来横冲直撞。

但是问题也随之而来。政策制定者需要作出判断,和手动驾驶汽车相比,自动驾驶汽车得多安全,才可以获得授权到公路上行驶。

在自动驾驶汽车及其生产商无法介入的情况下,法庭需要作出判决,事故由谁来负责。

电影《I,Robert》里的自动驾驶概念车

一方面,如果确实由人类驾驶员背锅的话,法庭一般不会判机器主责。最近,在一场由于航空货物码放失衡的飞机事故中——即便事发当时开着飞机自动驾驶系统,法庭仍然判航空公司负主要责任。

而另一方面,虽说飞机供应商签署了服务协议,但是使用该飞机的公司到底能把多少责任转嫁给供应商,还是有个所谓的限度的。

在去年特斯拉命案中,司机生前是知道“autopilot”自动驾驶的风险的。但是今年被Uber(优步)无人驾驶汽车撞死的那位行人,却没有主动知晓自动驾驶风险的义务。

几百年来,在与新科技的搏斗中,普通法(Common Law)见识过比上述更棘手的案件,但也想出了一些还过得去的补救措施。Uber会与受害者家属协商,如果协商未果,那就只能法庭见。

有人指出,这是个新的“有轨电车难题”。

有轨电车难题假设:火车在面临必须要撞死人的突发状况时,站在轨道旁边的人不得不做出缜密的道德决策——是什么也不做,让火车从轨道A直接碾压过去,撞死被绑在轨道A上的3个人;还是拉动拉杆,让火车转到轨道B上,压死被绑在轨道B上的1个孩子。我从未觉得这一假设让人痛苦不堪。

把自动驾驶汽车放进这个思维实验中,它会立即做出朝轨道B碾压过去的决定,并认为这是个相对道德的选择。但是于我而言,这个“新电车难题”本身就很荒唐。

科技对于法律的挑战,不在于何时何地转移责任——如同无人驾驶汽车那样,而在于,当科技呈现出一种新的“可见性特质”时,现有法律体系却不曾预料到。

假如未来,有一家无人驾驶汽车制造商脱颖而出,它的无人驾驶汽车不仅让驾驶员彻底摆脱手动开车的辛苦,还保持了出色的安全记录,并且对环境也很友好。

这辆混合动力汽车的设计者提供了一个节约能耗的方案,并让车主有自由探索操作系统的空间,关键是其驾驶系统符合交规,对行人不会造成伤害。

这辆车认为,它充满电后会更有效率,所以以电车模式开了一个月。但是有天晚上,这辆车突然决定走汽油路线,于是发动引擎,然后,弄死了屋子里所有的人。

想象一下,这辆车的设计者被告上法庭,极力为自己辩护,声称完全没料到会发生这种情况。他们明白,无人驾驶汽车会造成交通事故,会半道上没油,给乘客掉链子,但是他们无论如何预料不到,这玩意儿会用一氧化碳毒死人。

这个想象出来的案例,乍一看,和“无人驾驶汽车撞行人案”差不多。但仔细一看,却相差很远。

即便是在一个严格的责任体系里——需要找到被告有意或无意的过失——法庭仍然要求原告指出,被告事先对于损害是有预见性的。法律术语把这种情形叫做“就近因果关系”

因此,即便是采用了最先进的技术,如果一家爆破公司在爆破一栋大楼的时候,由于地下震动,造成了附近一个停车场的垮塌,这家爆破公司是要为此负责的。

但是,1954年,华盛顿的一个法庭却宣布某爆破公司不承担任何责任。当时被爆破的大楼附近有一个水貂农场,水貂被爆破声吓惨了,出于本能吃掉了自己的幼崽——爆破公司对此无责。

第一种情况下,损害是可以预见的,被告必须承担责任;但第二种情况带来的损失,则是不可预见的。

这种自然界的突发行为我们已经见过一些了,但是和大学、企业实验室的自适应系统比起来,仍然是小巫见大巫。

之前在阿姆斯特丹的一场时装秀上,一个推特机器人(Twitter bot)突然以暴力威胁活动的进行,组织方不得不报警。

而命运多舛的微软语音机器人Tay,操作数小时后即否认纳粹大屠杀的事实,引发一片哗然。

随着智能系统的应用越来越广泛,法庭或将重新审视“可预见性”在“就近因果关系”和“公平”中扮演的基础仲裁角色。这是个大变化。

但今后的问题就可能是,有受害者,但是找不到肇事者。听到两个脸书机器人(Facebook chatbots)出其不意地发明了新词汇时,我们可能会尴尬地笑一笑;但是哀悼被(无人驾驶汽车释放)一氧化碳毒死的一家人,却无法将“凶手”绳之以法,却是另一回事了。

这是我们当律师和法官的需要去研究的事。也许没有必要去纠结那个长久以来无所不在的“有限责任”了。

那么系统设计师的角色又是什么呢?当然,“适应性”和“突发状况”不应该是实验研究的目标和系统特征。如果仅仅因为这些偶发事件而对(人工智能)全盘否定的话,我是不赞成的。

说实话,机器人越来越有用,他们能解决问题、发现问题,并能以人类无法想象的创新方式取得成果。

但是,我有一些想法,可供读者参考。

首先,我认为有必要投入一些可以预见机器人行为、减轻损失、伤害的装置。比如为了研究无人驾驶汽车,密歇根大学模拟制造了一座城。如果没有类似条件的话,也可以运用一些虚拟环境,研究机器人与一系列复杂指令、数据输入的反应。

当然,我也知道科幻小说曾多次提到,由于计算原因,软件的行为是不可控的。但是,在把自动智能系统“撒出去”之前,我们最好多做些研究,越深入越好。

其次,允许、甚至鼓励研究人员对自动系统进行测试,而不必让他们担心受到责备,这一点很关键。公司和监管机构应该支持自动技术研究,看看未来的发展前景如何。

这就像找出安全系统里的bug(漏洞)一样,至少在服务协议中应写明,鼓励对安全问题的研究,并且不会遭到起诉。

最后,万物互联的风头似乎有盖过人工智能的趋势。新兴的物联网公司也在开发人工智能产品,即使问题百出,这些产品也代表着更好的监控趋势。也许有一天,机械天使突然得到灵感,但会和人类反复商量,这才好呢。

人类的调停、干预并不是万能之计,好消息是,我们有大把的时间。包括全自动驾驶汽车在内的第一代主流机器人,在我这个法学教授看来,不会造成什么大的法律难题。

但是第二代机器人就没准了。我希望在这个过程中,法律界和科技界的朋友们能齐心协力,共同应对高科技给法律法规带来的挑战。

所以,有关这个话题,我们邀请你来这一期的JIC投资沙龙,共同探讨全球格局下人工智能产业的发展趋势。

在这里,您不仅能听到权威人士的重要观点,见证《中国智慧互联投资发展报告(2018)》的发布,还能亲身体验人工智能机器人、VR/AR、人脸识别等软硬件技术产品的奇妙。

作者Ryan Calo系美国西雅图华盛顿大学的法学教授。本文摘译自 Communications of the ACM,2018年第5期,总第61期,第34-36页,译者雨佳。文章为作者独立观点,不代表JIC投资观察立场。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180829A1GWYU00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券