在未来,如果一个机器人触犯了法律,应该怎样制裁,结果你绝对想不到

通过查阅已有文献,发现当前国外机器人伦理研究争论的一个核心问题就是“究竟谁应该对机器人的行为承担责任?”人们普遍认同,机器人没有能力承担道德责任[尽管一些人反对这种观点(J.P.Sullins,2006)](R.C.Arkin,2008;D . D e n n e t t,1996;K.E.Himma,2009)。因为计算机像人们当前所认为的那样并没有意图(B.Friedman and P.H.Kahn.Jr,1992)。因此,人们可能会问:如果这样的半自主系统伤害到人类,那么谁应该对机器人的行为负责?

马提亚(Matthias,2004)给出了最简单且可能性最大的答案。他认为在大多数情况下,没有人能够承担机器人故障的责任。根据马提亚所言,原因在于控制的概念克服了责任归属。简单来说,系统的自主性越大,人类控制机器所涉及的责任就越少。马提亚甚至声称,因为自主性意味着程序员一方某些归责的失控,因此减少了程序员的责任。他认为,先进的编程技术(如神经网络、进化计算),使主体的学习能力得以加强。因此,离开原来的程序,程序员就不可能详尽测试他所发明的东西的行为。换句话说,程序员赋予机器人高水平的能力,但是他无法预见机器人在与人类相处过程中所出现的全部可能的行为。因此,当问题出现时,程序员不会承担责任。马提亚表明我们应该广泛采用保险的方法,以此作为一种解决方案,在事件发生时没有人承担全部责任时,能够让所涉及事件的所有人共同承担。

相比之下,马里诺和坦布里尼(Marino &Tamburini,2006)声称马提亚的陈述也许偏题太远了。在他们看来,当危害行为发生时操控机器的人并不是一个(或唯一)用来衡量责任归属的标准。人们认为工程师不能完全免于责任,唯一的理由是他们不能对隐藏在机器人动作中的因果链进行完全掌控(Marino,2006)。建议使用习惯的法律规范来填补马提亚所强调的“责任空白”。例如,在某些情况下,父母和教师未能给予孩子足够的教育、看护和监管,这就需要他们对孩子的破坏行为负责,即使没有明确的因果链将他们与破坏性的事件直接关联(Marino,2006)。阿莎罗(Asaro,2007)提出了一个类似的解决方案,他在机器人与任何其他“完全不起眼的技术产品”(如烤面包机或一辆车)之间画了等号。他指出,英美民法规定这些技术产品所引起的破坏性事件也将适用于机器人所产生的破坏。例如,如果一位制造商意识到机器人所产生的危险,但是却未能告知消费者,他可能被控告“未能警示缺陷”。即使生产者不知道其中的危险,他也会被指责“考虑不周”,这意味着制造商未能及时预见到他的技术所带来的一些容易被发现的威胁。阿莎罗指出,缺点是这不是民事法律,刑法几乎不适用于机器人,因为刑事诉讼只能由道德主体发起。一位道德主体能够理解法制社会所传达的道德概念。没有道德主体,社会将没有债务,不当行为所致的犯罪将会被偶然事件所掩盖。而且,只有一个道德主体可以被惩罚和改过自新(Asaro,2007),这种假设基于道德主体拥有坚持和改正道德观念的能力。一些学者已尝试触及到赋予机器人道德责任的问题。索勒姆(Solum,1992)和哈纳德(Harnard,2009)提出使用某种道德测试来裁决机器人是否需要在法庭上负责。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180716A1IL1N00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券