想象一下,这是2023年,自动驾驶汽车终于在我们的城市街道上行驶。 这时他们中的一个首次袭击并杀死了一名行人,并有大量的媒体报道。 可能引起高调的诉讼,但应该适用哪些法律?
今天,由于英国布莱顿大学的约翰金斯顿的工作,我们得到了一个答案,他在这个早期的法律领域描绘了景观。 他的分析提出了汽车,计算和法律世界应该认真对待的一些重要问题。
这场辩论的核心是AI系统是否可以对其行为承担刑事责任。 金斯敦说,以色列小野学院的Gabriel Hallevy详细探讨了这个问题。刑事责任通常需要采取行动和精神意图(法律上的行为和犯罪意图)。金斯顿表示,Hallevy探讨了三种可应用于AI系统的情景。
第一种:通过另一种方式称为肇事者,因为精神上有缺陷的人或动物犯下罪行,因此被视为无辜。但任何指导精神上有缺陷的人或动物的人都可以被追究刑事责任。例如,指示动物袭击另一个人的狗主人。这对那些设计智能机器和使用它们的人有影响。金斯敦说:“人工智能程序可以被认为是一个无辜的代理人,无论是软件程序员还是用户都被认为是通过另一人犯罪的人。
第二种情况称为自然可能后果,当人工智能系统的普通行为可能被不适当地用于执行犯罪行为时。金士顿在日本一家摩托车工厂中为一名人工智能机器人举了个例子,该工厂杀死了一名工人。 “机器人错误地将员工识别为其威胁,并计算出消除这种威胁的最有效方法是将他推入相邻的操作机器,”金斯顿说“机器人利用其非常强大的液压臂,将惊讶的工人砸入机器,立即将他杀死,然后又恢复了工作。”
这里的关键问题是机器的程序员是否知道这个结果是其使用的可能后果。
第三种情况是直接责任,这需要一个行动和一个意图。如果AI系统采取导致犯罪行为的行为或者在有义务采取行动时未采取行动,则采取行动很直接。
金斯顿说,意图很难确定,但仍然有意义。 “加速是严格的责任违法行为,”他说。 “所以根据哈利维的说法,如果发现自动驾驶汽车违反了该道路的行驶速度限制,那么法律可能会对当时驾驶该汽车的人工智能计划承担刑事责任。”在那之前案件,业主可能不负责任。
然后是防守问题。如果一个AI系统可以承担刑事责任,那么可以使用什么防御措施?金斯顿提出了许多可能性:一个发生故障的程序是否会声称类似于人类防御精神错乱的防御?被电子病毒感染的AI可否声称类似于强制或中毒的抗辩?
这些防御绝不是理论上的。金士顿强调了英国的一些案件,那些被控与计算机有关的犯罪的人成功地认为他们的机器已经感染了恶意软件,而恶意软件却是犯罪的责任。在一起案件中,一名青少年电脑黑客负责执行拒绝服务攻击,声称一个特洛伊木马程序是负责任的,然后在对其进行法医分析之前从计算机上清除。 “被告的律师成功说服陪审团说,这样的情况并没有超出合理的怀疑,”金斯顿说。
最后是惩罚问题。对于AI系统直接负责的犯罪,谁或将受到哪些惩罚?这种惩罚将采取何种形式?目前,这些问题没有答案。但是刑事责任可能不适用,在这种情况下,这个问题必须通过民法来解决。那么关键的问题是AI系统是服务还是产品。
例如,如果它是一种产品,那么产品设计立法将基于保修而适用。如果是服务,则应适用疏忽侵权。在这种情况下,原告通常必须证明三个要素来证明疏忽。第一种情况是被告有义务小心 - 通常很直接地表明,尽管在AI的情况下可能难以评估护理标准,Kingston说。第二个要素是被告违反了这项义务。第三是违规行为对原告造成了伤害。
如果所有这些都不够模糊,人工智能系统的法律地位可能会随着他们的能力变得更像人类甚至超人类而发生变化。有一件事是肯定的:在未来几年,律师或AI系统取代他们可能会带来一些乐趣。
领取专属 10元无门槛券
私享最新 技术干货