争论的核心在于人工智能系统能否自行承担刑事责任。Kingston称,以色列奥浓科学院的Gabriel Hallevy对此问题进行了深入研究。
第一种情况为间接犯罪,肇事者为存在精神缺陷的人或动物,此类肇事者无需承担法律责任。但任何操纵精神病患者或动物实施犯罪的人均需承担相应刑事责任。例如,狗主人命令狗袭击他人。
再比如,智能机器的设计者及使用者。Kingston表示:“AI项目可能被当作无辜的工具,而利用它实施犯罪的软件编程师或用户则为间接犯罪的主谋。”
第二种情况为不可抗力与意外事件,即指因不当使用AI系统导致的犯罪。Kingston以日本摩托车工厂智能机器人杀人案件为例,解释道:“机器人将工人误认为危险对象,采取消除威胁的最有效方式,挥动力大无穷的液压悬臂,将毫无防备的工人推入机器,迅速结束了他的生命,然后继续执行工作任务。”
此案例的关键问题在于该机器的编程师是否已知此类机器的功能缺陷及可能带来的后果。
第三种情况为行为与意图兼具的直接犯罪,如果AI系统的作为或疏忽不作为构成犯罪,则可直接证明其犯罪事实。
某案例中,一名被控发起拒绝服务攻击的青少年黑客辩称,木马程序发动了此次攻击,该程序还在警方介入前清除了作案痕迹。
最后,涉及刑罚类型。既然AI系统是犯罪行为的直接责任方,那么应由谁来接受何种刑罚?这些问题尚不得而知。
但若AI系统触犯的是民法,就不应再追究其刑事责任。接着问题来了,AI系统究竟属于服务还是产品?
如果将AI系统视作产品,应根据产品保修证所提供的信息,运用产品设计法规处理案例。
如果将其视作服务,则存在过失侵权。这种情况下,原告通常需提供构成过失侵权的三要素。
其一,需证明被告有看管义务。Kingston表示,尽管AI案件中没有明确界定看管标准,通常可直接证明。
其二,需证明被告存在失职。最后,还需证明该失职对原告造成了伤害。
然而,比这些条文更复杂的是,随着AI系统的能力愈发接近人类,甚至超越人类,其法律地位也将改变。
有一件事是肯定的:未来几年内,律师(或是替代他们的AI系统)会卷入越来越多的新奇案例纠纷中。
(来源:科技行者)
领取专属 10元无门槛券
私享最新 技术干货