首页
学习
活动
专区
工具
TVP
发布

陈景辉:《人工智能的法律挑战:应该从哪里开始?》阅读笔记

本文系对陈景辉:《人工智能的法律挑战:应该从哪里开始?》的阅读笔记,原刊于《比较法研究》2018年第5期。与作者本意或有不符之处,请以原文为参考。

01

导言

作者认为AlphaGo对人类的胜利引发了人们对人工智能的焦虑,进而激发了人们对人工智能的普遍而又持久的反省。而法律作为人们生活中的重要部分必然是其中主角。但就目前而言,对人工智能和法律问题的讨论依然杂乱无章,因此本文试图厘清到底什么才是人工智能对于法律的挑战。

文章的基本结构:

1.区分出目前学界讨论的人工智能的法律挑战的基本类型,指出求中的错误和薄弱之处;(第二、三节)

2.回头讨论人工智能与其他科技发展之间的关键性区别;(第四节)

3.讨论人工智能所引发的真正的挑战,以及可能回应的初步方向;(第五节)

02

“挑战”的基本类型与一个错误的方向

要对人工智能对法律的挑战问题进行有效的讨论,就必须首先清楚这种“法律挑战”的性质如何,借以将那些不应当被视为“挑战”的挑战排除出去。据此,作者首先对何为“挑战”进行了界定,挑战即“一项改变导致既有的做法或者看法被迫要作出某些相应的修正,或者必须创造出全新的做法或者看法”。由此,生发出两类挑战:“理论上的挑战”(对看法或观念的挑战)和“实践上的挑战”(对做法或行为上的挑战)。

据此,作者认为目前存在的有关人工智能的法律挑战的问题大致可归纳为三个讨论方向:(1)人工智能对法律性质的理论挑战;(2)人工智能对司法裁判的实践挑战以及(3)人工智能对风险防范与救济机制的实践挑战。作者认为,其中理论挑战是错误的,而两项实践挑战是脆弱的,并就此进行了详细论证。

人工智能对法律提出的理论挑战是“算法即法律”的法律定义对传统法学理论提出的挑战。作者认为,法体系的全面性(comprehensive)和至上性(supreme)是法概念的内在要求。因此,算法必然无法获得与法律相提并论的地位,必然处于法律的辖制之下。所以,所谓人工智能对法律的理论挑战是一个错误的讨论方向。

03

两个脆弱的讨论

就第二项挑战而言,作者认为人工智能在证据和法律准则的运用上确实可以在一定程度上弥补传统司法裁判方法上的不足。但是由两个方面的原因决定了这项挑战是脆弱的。一是整体上,人工智能对于司法裁判的改造然仍处于传统裁判理论(法律现实主义)的范畴之内。二是,人工智能虽然又不同于传统裁判理论,将自由裁量排除在了裁判模型之外,但这并非是人工智能带来的挑战,而仅仅是因为它无法进行价值判断。

在第三项挑战的问题上,作者认为,科技的进步毫无疑问一直对我们的生活和法律产生影响,人工智能亦是如此,其影响甚至更为全面和深远。但这并不实践意味着其所引发的所有实践均是“对法律的挑战”。许多问题在既有的法律框架内即可解决,如“快播案”引起的问题。 这些挑战因此都不应被视为“挑战”。

那么到底人工智能带来的哪些挑战才是我们要认真面对的呢?作者提出了一个基本标准:一旦能够将该法律问题中的人工智能视为纯粹的工具, 那么此时争论的核心就转向了人,而不是作为工具的人工智能,此时法律问题与人工智能问题就可以被分别来处理,并且其中对人工智能的看法并不影响对法律的看法,这就不成其为“人工智能对法律的挑战”。反之,如果无法将人工智能的问题与法律问题区别开来,并且对人工智能的看法将会影响到法律上的看法,那么这就构成了人工智能对于法律的挑战。

04

人工智能的特殊性

基于上述论述,作者认为要以正确的方式讨论人工智能对法律的挑战问题,就应该了解人工智能相对于其他科技的特殊性。这一特殊之处就在于“人作为人的地位”。作者指出人工智能带来的问题与传统科技引发的问题的重要差异在于:传统的科技运用,能够明显地去区分出运用的主体与运用的工具这两个不同的部分,然而人工智能的运用过程中,“使用者”和“工具”的两分变得困难。因为,一方面,人工智能的学习能力改变了过去使用者和工具之间的“单向”服务关系,从而改变了人工智能单纯的工具身份。人工智能可以通过学习来调整自己的“服务”。另一方面,正是由于人工智能具备某种智力上的能力,使我们不能独断地认定其为纯粹的工具,否则有可能贬低智力能力的重要性,从而贬低了人类因其理性能力而获得的地位。也因此,人工智能的使用除了为引发传统科技都可能引发的问题之外,还会引发人的尊严问题。这是其挑战之独特性所在。

05

应当从哪里开始?两个基本的挑战

依据第四节的论证,人工智能前所未有地挑战了人作为“人”的地位。由此,作者进一步提炼出了挑战题的两个具体方面:“(1)由于人工智能与人类之间不再是工具角色的单向服务关系,因此即使是弱人工智能也会导致某种人类的“客体化”,这在法律上的效果是,它严重挑战了人作为道德主体而拥有的尊严。(2)由于人工智能具备识别与决策的智力能力,这会与人的理性能力之间形成某种对照关系,以至于我们必须重新审视我们所拥有的理性到底是什么,于是会对某些法律问题的看法作出改变。”

就第一个方面而言,作者指出,人性尊严大致有两类:“人的尊严”和“个体尊严”。“人的尊严”指作为物种的人类由于其是唯一能以工具化方式对待其他物种的生物,而获得的特殊地位。尽管这种尊严受到出于该尊严本身的道德准则和对其他物种的道德责任的约束。“个体尊严”是指每个个人本身就值得其他个体尊重,这包含了个人的内在价值原则和自我责任原则两项方面。作者认为,人工智能对这两种尊严概念都提出了挑战。一来,人类在运用人工智能的同时也以“数据化”的方式成为人工智能的分析对象,从而被人工智能“工具化”了。二来,人工智能将侵蚀人们在反思意义上塑造自己生活的能力。通过互联网和大数据,人们将赤裸裸地被人工智能记录下来,使人们丧失对自己生活的控制,缺乏自我保护的能力。现如今,欧洲虽然通过《一般数据保护条例》一定程度上保护了“个体尊严”,但在“人的尊严”问题上依旧缺乏法律的回应。法律应当以权利为核心对人工智能对人性尊严的挑战进行回应。

就第二个方面,作者认为,人工智能引起了对“理性”问题的反省,该问题从属于“自由意志与责任”问题。人工智能的基础通常建立在将人脑的思考方式化约为神经反应的基础上。通过神经系统的电子化使人工智能得以进行理性计算。但这就将自由意志排除在了理性能力之外。这一方面将挑战我们对责任的认知。若人工智能的基础是正确的,自由意志与理性无关,那么我们如何承担责任?另一方面,这也将联系到人工智能的司法应用问题,若理性无关于自由意志,那么在裁判中排除以自由意志为基础的自由裁量是否才是正当的。不过作者指出这两个问题都很复杂,在这里也只是提醒人们应当注意这些问题,而不是试图去解答它们。

06

结论

作者重述的本文的目的,即分析人工智能的法律挑战的性质和类型,并揭示当前相关研究中的不足。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190125G0DWNP00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券