首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

人工智能权利话语批判全文版

人工智能权利话语批判

刘振宇

作者简介

上海师范大学哲学与法政学院讲师,法学博士。

文章来源

本文原载于《自然辨证法研究》2018年第8期。

摘 要:人工智能被想象成为“像人一样的主体”。在此基础上,人们借助主体范式和关系范式开始建构人工智能的权利话语体系。但是,无论哪一种视角,其根源都是人类中心主义的。这就导致人工智能和人类的交往行为,不足以像正常的成年人一样,具有道德权利的双向社会性意义,因此,人工智能必然缺乏道德主体资格。与此同时,尽管法律规范可以设定人工智能的相关法律权利,但这一权利设置更多体现为无权利的义务,并且是为了保护人类的利益,因此,人工智能的法律权利就是修辞性的,而非真正的法律主体权利。

关键词:权利,人类中心主义,道德主体,法律主体

人工智能已经开始介入到人们的日常生活之中。但是, 关于人工智能的社会定位, 却存在争议。尤其是当人工智能的社会化应用改变了传统“人-机”交往形式和内容的时候, “人工智能是否是行为主体”“人工智能是否拥有权利”“人工智能拥有何种类型的权利”等问题便应运而生。它们构成了一整套属于人工智能的权利话语体系, 并对人工智能产业的发展趋势施加影响。本文试图澄清这一争议, 明确人工智能既非任何意义上的道德权利主体, 也非真正的法律权利主体;只不过, 鉴于法律规范的特殊性, 可以宣称其具有部分法律上的权利。

01

一、人工智能的主体想象

“当我们谈论人工智能时, 很大程度上受到源自20世纪想象的影响, 例如, 直接把人工智能和机器人联系起来, 甚至是人形机器人。”[1]但这一想象, 并非在两种毫无关联的事物之间建立直接的、简单的联系, 而是将三种概念不同但具有相关性的事物——“机器”“机器人”“人工智能”——基于“人-机”关系发展而得出的必然形象。

人类在鸿蒙时期便通过制造不属于自然之物的人工之物将自身和其他的动物区分开来。而机器, 便是人工之物之中的一种。它隶属于工具范畴, 是人类改造自然的媒介之一。改造自然的“分工导致了这些简单工具的创造”[2]411, 而简单工具是“机器发展的工艺、物质的前提之一”[2]411, 因为“机器劳动这一革命因素是直接由于需求超过了用以前的生产手段来满足这种需求的可能性而引起的”[2]472。因此, 机器不仅是简单工具的组合, 而是“这许多工具成为在动力、规模和作用范围方面都是统一的某种东西”[2]452, 体现了“技术物体从非饱和性向饱和性转化的内容。”[3]

随着单向度时间的推进以及随之而来的技术能力的显著提高, 机器的运转越来越“去人化”。它不仅是拓展人类探索和利用自然的工具, 同时可以在具体的特定领域代替人类去探索和利用自然。自动化机器的出现, 不仅“引起‘生产方式上的改变’, 并且由此引起生产关系上的改变……‘并且归根结底’引起‘工人的生活方式上’的改变。”[2]501机器排斥工人的时刻, 也就是机器成为工人的时刻, “机器工人”出现了, 毕竟, “在以机器为基础建立起新的生产部门的地方, 当然谈不到用机器代替工人”[2]563, 它们就是“工人”本身。因此, “机器人”与其说是界定某种像人一样活动的机器时所用的概念, 不如说是描述某种机器像人一样活动时所用的概念。比如, 扫地机器人, 不过是一种外表圆形、带有保洁功能、可以贴地行走的机械产品, 其不但和人类在外观上相去甚远, 而且和既有的吸尘除螨器械在动力机制上并无差异, 可这样一种不像人的机器却被称之为“机器人”。因此, 机器人“很大程度上是一种概念性的创造物。”[4]36

这一对于“机器人”概念理解方式的转换, 不仅解释了为何日常语用中许多被称之为“机器人”的机器并不需要具有人类的外表或特征, 同时也为“人工智能”和“机器人”的联合想象确立了认知基础。毕竟, “自1955年麦卡锡在达特矛斯会议上首次提出‘AI’这个概念之日起, 绝大多数尝试制造智能机器或计算机来模拟人类智能的研究都是朝着这一目标努力的”[5], 而如同人类的肉身是人类智能的载体一样, 既有的“机器人”恰好具备成为这一人工智能机械身体的一切功能属性。此时, 人工智能是否像人类智能一样并非这一概念的核心, 而是, 人工智能和人类智能所展现出来的功能指向是否一致。人工智能的数理代码运算模式和人类智能的生物代码运算模式在现阶段的知识体系中存在质的差别, 这一差别或许只有等到人脑的运算方式被脑科学破解才有可能破除;但是, 这并不妨碍人工智能在人类活动的诸多领域显现出越来越多的功能性优势, 曾经的象棋, 如今的围棋和无人驾驶都是其中的典范。这些原先被认为属于人类“智慧”的领域, 如今却被证明不过是“知识”的范畴。

因此, 人工智能和机器人的最终衔接,是在以人类主导的世界中, 机器作为一种不同于人类的种属在历史发展过程中的必然结果。唯有更加“类人化”的机器, 才可能被人类制造并传播开来, 而“类人化”机器进一步的传播, 带来的便是生产、流转、消费环节的“去人化”结果。这就要求机器不仅在功能上需要和人类相近, 同时在代码运行机制上也要和人类相近。这是整个人类想象力的界限, 而并非囿于20世纪的想象力局限。“人使他自己的本质对象化, 然后, 又使自己成为这个对象化了的、转化成为主体、人格的本质的对象”[6], 人类“头脑的产物就统治他们”[7]。如同人类想象的神灵必然有着一副人类的面孔才可以显现出来并为人所知一样, 人工智能也只有通过一种拟人化的外在表现形式 (机器人) 才能够为人所知。尽管, 这并不意味, 人工智能必然是依附于机器人的, 比如, 阿尔法围棋作为一款人工智能程序, 其不过是虚拟世界中的一连串代码, 但无论是作为对阵者的李世石、柯杰, 还是观众, 都将之作为一名可以在棋盘上落子的、具有“身体”的“真正”对手来看待。这, 便是人类关于人工智能的主体想象。

02

二、人工智能的权利话语

想象的主体, 止于想象。但人工智能并不是想象的创造物, 而是客观存在的事物。于是, 想象就不再是单纯的想象, 尤其是这一事物作为想象的主体越来越像“人”的时候, 它在现实之中是否也越来越值得被当作一个“人”来看待, 就成为了人类思考的问题。“关于‘智能与精神要素不必囿于人类和其他自然物种’的新思想开始充斥于各种著作之中”[8], “‘物’转向后的伦理学家们开始正视‘物’的问题, 这包括技术人工物之‘物’和技术文明之‘物’。”[9]在这样的语境中, 作为技术人工物的高级智能形式的人工智能是否具有道德主体地位就开始成为伦理学的重点关注对象之一。

确认某一事物是否具有道德主体地位, 存在两种解读范式。第一种解读范式, 是明确指出一个无可争议的道德主体典范代表M, 并确立其具有道德地位S是因为具备特征P, 即特征P是具有道德主体地位S的必要不充分条件, 不具有特征P的任何主体都因和典范代表M不相符合而不具有道德主体地位S;进而, 某一特定事物X, 只有当其具有和典范代表M相符合的特征P的时候, 才获得了具有道德主体地位S的可能性。“绝大部分机器人伦理学研究者都有意识或无意识地遵循着这一……进路及其推理模式”[10], 这是针对人工智能主体想象的标准解读范式。

但是, 鉴于在第一种解读范式中, 特征P不过是具有道德主体地位S的必要不充分条件, 因此, 即便在特定事物X和典范代表M具有可比较性且特定事物X确实具有了特征P的前提下, 依然不足以直接得出“特定事物X足以具有道德主体地位”这一结论。这一内在于推论的逻辑难题导致第二种解读范式的出现:在同为道德主体典范代表M1和M2的交往过程中, 只有当二者的交往行为都呈现出特征P的时候, 这一交往行为才会被认为是道德的, 即M1和M2的道德地位S此时才得以显现;进而, 当道德主体典范代表M和特定事物X进行交往之时, 如果二者的交往行为都具有特征P, 那么, 特定事物X就会被道德主体典范代表M认为是道德的, 即具有道德地位S。在这种解读范式中, 特征P不再是具有道德地位S的必要不充分条件, 而是充分不必要条件, 毕竟, 即便M1和M2的交往行为不展现特征P, 他们依然是道德典范代表, 依然拥有道德地位S, 但只有在交往行为中展现出特征P的时候, 两个不同事物才相互把对方作为拥有道德地位S的主体来对待。

而伴随着对人工智能具有道德地位S的论证, 人工智能的权利话语开始得以建构。一方面, 在第一种解读范式中, 如果能够确立人工智能的权利, 那么, 在和人类共享特征P的前提下, 人工智能就能够具有道德地位S, 因为道德主体就是享有权利、行使义务的主体。另一方面, 在第二种解读范式中, 只有在人工智能享有权利的前提下, 人类和人工智能的交往行为才具有包含道德特征P的可能性。这就意味着, 无论是采用哪一种针对人工智能的主体解读, 都必须将“权利”和特征P结合在一起,才足以支持“人工智能是一类真正的道德主体”的论证, 意即, 当且仅当人工智能展现特征P且享有权利的时候, 人工智能才从想象的主体转化为现实的主体。“权利”话语的介入, 是论证人工智能从想象主体转化为现实主体不可或缺的要素。“若人工智能没有权利, 就不会有法律地位, 在法律上就不是真实的。”[11]53这也就不难理解, 为何“关于机器人权利的论述似乎比许多其他机器人伦理问题更早地引起学者们的关注”[12]84了。

“权利发展史证明, 权利体系的构成从来不是固定不变的。在原有权利遭遇新兴事物冲击的情况下, 不同群体的实力博弈将重新构筑权利体系。”[13]57公民权主体的扩张是一个典范。在古希腊时期, 奴隶是自由民的反义词, 二者界分了不能参加政治生活的非公民和能够参加政治生活的公民;[14]在18、19世纪, 无论是欧洲还是美国, 女性并不享有公民权, 她们拥有家庭生活、社会生活, 但不拥有政治生活, “女人生活的中心在家庭之中, 因此, 国家豁免她们参加陪审团的义务”[15];在1964年《民权法案》出台之前, 美国的非洲裔并不享有完整的公民权, 尽管在美国内战之后, 他们在形式上已经获得了美国宪法的平等对待。[16]这一扩张意味着, 享有既有权利的主体范围不是固定的。动物权利的兴起是另一个典范。这一兴起意味着, 享有权利的主体不再受到物种差异的限定。因此, 沙特阿拉伯授予“女性”机器人索菲亚正式公民身份这一事件, 只不过是恰好发生在2017年10月26日的沙特阿拉伯, 恰好授予给了索菲亚, 而已。毕竟, “公民身份从来就不是一种只悬搁在政治或者社会当中、与个体不存在关联的概念, 相反, 它是一个非常‘情境化’的概念, ‘情境’把行动者和相应的社会场景统一在一起。”[17]

获得公民身份的人工智能“首先应该拥有得到尊重对待的权利”[12]86。研究已经确认了特定功能人工智能的“社会价值”:人类把拟人化的机器人当成人类一样对待。这就意味着, 人类需要尊重人工智能, 不能“虐待”它, 即人类不可滥用人工智能的功能、不可损害人工智能的载体、不可随意切断人工智能的电源等。进而, 在诸般社会事实的基础上, “法律救济满足人工智能的利益要求并非不可能。例如停止侵害、排除妨害均可适用于人工智能的救济。”[11]53与此同时, 除了来自于特征P和道德地位S的一般意义上的道德权利之外, 以数据运算作为算法支持的人工智能, 还需要其他权利作为其生存的必要保障, 包括但不限于数据资源的共享权利、个体数据的专有权利、基于功能约束的自由权等基本权利等。[13]62-64当这两方面结合在一起的时候, 人工智能便不仅仅是被当作“人”, 同时, 也如同“人”一样行动。因此, 欧洲议会才会建议, 具有复杂功能的人工智能应该被确认享有法律上的电子人格, 有责任弥补自己造成的损害。[18]

03

三、缺乏道德主体资格的人工智能

“权利的常规话语是预先系统化的假设”[19]109,而人工智能权利话语的兴起, 符合人类对于人工智能的主体想象。但是, 以想象为基础诞生的权利主体, 却也不过是想象的产物。因为, “人工智能是/能够成为权利主体”的命题以突破“人类中心主义”的相关伦理理论作为支持, 但在论证人工智能之时, 这些自称“超人类中心主义”的论证, 却依然是人类中心主义的。这在两种对人工智能道德地位的不同解读范式中, 体现得尤为明显。

两种对人工智能道德地位的不同解读范式, 表面上为人工智能作为权利主体的塑造提供了两条不同的论证路径, 并且都将道德主体从人类扩展到了人工智能。前一种解读方式的核心是, 人工智能“像/和”人“一样”拥有道德特征P。尽管特征P具体为何, 存在着诸多考量, 但基本上, 所有的相关论证都接受一种划分, 即弱人工智能、强人工智能和超人工智能的划分。[20]在弱人工智能阶段, 人工智能只是行使某一特定人类行为, 即在某一特定领域“像/和”人一样, 而这一固有的限度, 使得作为整体的人工智能并不足以具有道德地位S。而在强人工智能阶段, 人工智能X和人类M具有了共通的特征P, 此时, X和M不再具有可比较性, 二者归属为同一类事物的范畴, 人工智能也就和人类一样具有了道德地位S。至于超人工智能阶段, 无论如何发展, 都不影响人工智能拥有道德地位S, 因为经过了强人工智能阶段的人工智能已经和人类同在。后一种解读方式的核心是, 人工智能能够和人进行道德行为交往, 即“道德能动性”构成了特征P, 而不仅仅是“道德行为”本身。于是, 人工智能的发展阶段就从功能指向的弱、强、超, 变成了以交往指向的四种类型:能够影响伦理的主体 (ethical-impact agents) , 潜在的主体 (implicitagents) , 显明的主体 (explicit agents) 和完满的伦理主体 (full ethical agents) 。[21]前两类人工智能在和人类的交往中呈现出道德的弱关联性, 并没有超越机器属性, 尽管可能在其他方面都已经非常像人;而第三类人工智能已经拥有了做出道德决定的能力, 其构成了独立的道德交往行为, 因此较大可能具有道德地位S;第四类人工智能则已经完全可以具有道德地位S。

但实际上, 这两种解读范式本质上是同一的。它们共享着同一个预设:只有依托于人类本身的时候, 特定道德特征P的存在才是有意义的。在第一种解读范式中, 人类拥有特征P, 进而, 拥有特征P的存在者就会被当作“人类”;在第二种解读范式中, 人类和人类之间的交往拥有特征P, 进而, 和人类交往拥有特征P的存在者就会被当作“人类”。而这, 也是理所当然的, 因为, 特征P的道德意义来自于人类的赋予, 也就是说, 特征P实际上仅仅是人类的道德特征P, 而非任意的特征P。因为只有能够为人所理解的特征P, 才能够达到“像”人一样的情况;而不能够为人所理解的特征P, 即便对于其他存在者可能是符合道德的, 但是, 对于人类来说, 则未必是符合道德的。因此, 由人所构想的伦理学, 都必然是关于人的伦理学, 而不是非人的伦理学, 这是由人类自身及其视域所决定的。托勒密的地球中心宇宙模型和哥白尼的日心说模型, 二者同时既不是真实的也不是虚假的, 它们的存在只是表明, “不存在与图像或理论无关的实在概念”[22], 它们都是基于观察者———人类———而建立的模型。自然规律尚且如此, 人类主动参与建构的伦理规范更无例外:“伦理学规范的内容是某种生物学需要的或直接或间接的再包装, 而不是脱离了这些需要的纯精神臆造物。”[23]这也是为何, 道德主体的典范代表M只能是正常的成年人。“如果说什么事物能够拥有道德权利的话, 那么, 一定是拥有正常思考能力和行动能力的成年人;只有那些认为不存在道德权利的人才会拒绝这一说法的可能性。”[19]107

和作为典范的成年人相比, 人工智能差距明显, 因而, 人工智能无法享有道德主体资格。这里的差距, 并不在于思考的能力和行动的能力这两种类型能力层面的差距, 因为它们都仅仅是道德主体的表征, 而非道德地位S的必备要素, 即它们不足以成为道德特征P。否则的话, 有心智缺陷的人和尚未发育的儿童, 都不属于道德主体。将这两类主体排除在道德主体之外, 不仅不符合人们日常的认知, 同时也受到诸多道德理论的批判。毕竟, 对于前者来说, “任何人都可能心智上有所缺陷, 或者, 有一位所深爱的、心智有缺陷的孩子, 因此, 理性的人就将意图为此提供了一个不可逾越道德红线”[24], 不将心智缺陷作为道德主体的特征P。而对于后者来说, “道德上敏锐而富有洞察力的人并不拒绝将道德信条加诸于孩童”[25], 因为从孩童成长到成年人是一个复杂的动态过程, 有着“时间”要素的介入, 如果排除在外, 就意味着一个人在某一瞬间之前还不是权利主体却在时钟拨动之后就突然间成为了道德权利主体。因此, 人工智能的思考能力和行动能力和人类的差距尽管十分重要, 但更为重要的是, 和正常的成年人相比, 人工智能作为想象的主体而非现实的主体, 其自身行动无法和真正的道德权利相匹配。

唯有将“权利”和道德特征P结合在一起, 才真正构成了道德主体的充分必要条件。“权利的特性在于, 它关心的是拥有权利的人和权利相对人之间关于自由和控制的分配。权利的核心功能是授予拥有权利的人一种支配力。”[19]107自由和控制构成了道德权利呈现出的两种最基础的状态。和正常的成年人相比, 有心智缺陷的人在部分事项上能够拥有这种支配力, 因此, “能够拥有较少类型的权利, 或行使范围较窄的权利, 或者某类特定类型的权利”[19]130;“儿童在成长过程中, 逐渐获得了道德能动性”[19]125, 也逐渐获得了对行为相对人的支配力;但是人工智能却无法做到这一点, 因为它所拥有的“自由”, 不过是算法控制下的行为自动化, 而并非对抗其他主体控制的自由。这就使得人工智能在实施行为的时候, 其相关理由并不具有道德性, 因为这一行为的实施只具有单向理由———它的行动是有理由的, 但是, 这一理由并不是人类对其进行道德肯定或道德否定的理由;而真正的“道德理由是既是行动者行动的理由也是其他人对该行动者的行动进行回应的理由。”[19]41于是, 人工智能的行为和人类的行动之间, 不具有社会性关联, 尽管可能具有因果联系并产生社会影响。以Alpha Go及其后续的Alpha Go Zero下围棋为例, 当它们进行下围棋的时候, 尽管我们会想象坐在看不见的地方有一个“人”在落子, 但是, 无论这一子落在什么地方、无论这一局是输是赢, 对它们的评价都不过是“技巧的优劣”而非“棋品的高低”;哪怕是它曾经“胡乱落子”导致本方告负, 我们也不会对这一“乱下”进行否定性评价。因此, 尽管在对人工智能的第二种解读范式中, 人对于人工智能的行为已经具有了社交因素的暗示, 但是, 鉴于其反向暗示并不成立, 人工智能依然不足以享有道德权利。与此同时, 第二种道德状况“控制”意味着, 如果人工智能作为道德主体, 将有权力控制人类加诸于其上的行动。但这一假设并不成立。毕竟, 迄今为止, 没有任何关于人工智能的伦理理论赋予人工智能控制人类行动的权力, 即当人工智能自行判定某人未能尊重它的时候, 它可以违抗此人的命令或对抗此人的行为, 并且, 它的对抗行为能够得到其他人类的道德肯定。于是, 即便不考虑人工智能是否拥有道德自由, 它依然无法获得道德权利。

04

四、法律拟制权利的限度

尽管随着技术的发展, 人工智能很大可能将会拥有类似与人类的道德特征P, 但鉴于人工智能不是在道德理由的支持下实施行为, 因此其就不足以拥有道德主体资格。不过, 还有另外一种可以赋予人工智能以“权利”的方式, 那就是法律的进路。

拥有法律人格和法定权利, 和人工智能是否是道德主体并没有必然联系。享有道德权利的道德主体是拥有法律人格和法定权利的必要条件, 但是, 法律人格和法定权利的范围, 显然要超过道德主体和道德权利的界限。因为法律人格的确立和法定权利的授予来自于立法, 而立法在很大程度上是一个利益博弈的过程, 所以, “当不同群体之间的利益关系发生变化, 进而影响群体之间的实力对比时, 法定权利的构成与分配也将重新划定。”[13]59最为典范的例子便是法人。根据《中华人民共和国民法总则》第57条, “法人是具有民事权利能力和民事行为能力, 依法独立享有民事权利和承担民事义务的组织。”其和自然人一样, 是民事主体之一。尽管可以认为, “法人的建构有着现实的历史基础和人类实践基础, 绝不是纯粹‘拟制’或虚拟的产物, 法人作为理性的建构物, 是一种‘理念实体’”[26], 但是, 法人并不具有道德权利, 因为“法人的团结并不是实质性团结”[19]161, 这一人与人的集合“不是一个自足的主体, 它无法实施源发行为”[19]163, 也就无法拥有源于它自身的自由和控制, 毕竟, 法人的每一个行为, 不过是负责控制法人的人自由行使权利的体现, 而不是法人自由习惯是权利的体现。另一个典范代表是胎儿, 尽管它连道德特征P都不具备, 但法律并没有禁止一个人在出生之就拥有财产的权利, 即便这一胎儿可能永远不会出生, 但是, 根据民法总则第16条, 死亡只不过是除权事由, 并不妨碍胎儿成为一个真正的所有权人。之所以如此, 乃是因为, “从法律系统的角度来看, 法律是双向理由, 它既是受法律约束的主体进行特定行动的理由, 也是当有人违法时, 法律系统中的公务人员, 尤其是法官和法庭工作人员, 对之进行回应的理由。”[19]41因此, 在理论上, 法律规范可以拟制出任一先前本不存在的主体及其权利, 只要这一规范获得了立法程序的通过。于是, 一旦法律将人工智能作为一个法律拟制的、具有法律意义的主体, 那么, 人工智能就必然应当拥有法定权利;与之相应, 一旦法律赋予人工智能法定权利, 那么, 人工智能便具有了一定程度的法律人格。

人工智能“是机器还是人, 在法理上涉及到主客体二分法的基本问题……将其作为拟制之人以享有法律主体资格, 在法理上尚有斟榷之处。”[27]根据既存的中国法律规范, 关于人工智能是否享有法律权利, 缺乏具体的规则标准, 既没有关于人工智能法律权利的价值指引, 又未能明确人工智能的法律地位。[11]51-52但在现实层面, 阿西莫夫的“机器人三原则”业已广泛传播, “目前机器人的设计大致还是遵循了阿西莫夫的三原则”[28];基于人-机器人系统视角的替代法则, 并没有带来人工智能权利配置的变化。[4]40-41因此, 针对三原则的分析, 将有助于理解人工智能获得法律权利的可能性。其中, 第一原则“机器人不得伤害人”实际上是加诸于人工智能的规范性义务, 其和第二原则“在不违反第一定律的情况下, 必须服从人类命令”一起, 形成了人对人工智能的控制。这被认为是一种利他主义的行为模式。尽管利他主义权利“在法律领域也仅仅表现为‘见义勇为’‘无因管理’等少数行为”[13]60, 但确实存在如此类型的法律权利。而第三原则“机器人必须保护自己”, 则被认为“实际就是给予人工智能自我保护的权利”[11]52。这是一种典型的利己主义, 也是人工智能法律权利话语中最为重要的一项内容。根据霍菲尔德的梳理, 法律权利话语可以进一步细分为八种基本法律概念, 它们一一对应, 构成四组对应关系:权利, 义务;特权, 无权利;权力, 责任;豁免, 无能力。[29]其中, 狭义的权利实际上是请求, 而特权即为自由。第一原则意味着, 人类对于人工智能有一种请求权, 即, 当人工智能违反法律义务准备伤害人类时, 任何人都有权利要求人工智能停止这一侵害;第二原则意味着, 人类对于人工智能拥有权力, 即, 在不违反第一原则的情况下, 人类有法律权力要求人工智能做任何事情;第三原则意味着, 在不违反第一和第二原则的情况下, 人类有不得要求人工智能自我侵害的法律义务, 一旦有人这样做, 任何人都有权利要求他停止这一命令, 或, 命令人工智能停止前一命令。于是, 从每一原则所设定的行为规范出发, 人工智能的相关行为都可以在法律话语中占有一席之地。这就意味着在任一国家, 只要其经由立法通过了相关的法律规范, 人工智能就明白无误地具有了法律权利, “因为在任一法律体系中, 法律的内容是由被当作权威接受的渊源所决定的”[19]122。

然而, 法律是否规定人工智能拥有权利是一回事, 法律是否应该规定人工智能拥有权利则是另一回事。如同人类的视域使得道德权利无法回避人类中心主义一样, 法律权利同样无法回避人类中心主义。作为体系的“机器人三原则”完美地呈现了这一点。检验问题便是:人工智能是否有权利伤害人工智能?作为真正的法律权利主体, 无论自然人还是法人乃至于国家, 都不拥有侵害其他主体的法律自由, 只有国家拥有特定情况下有约束其他主体的法律权力。即便可以假设作为法律权利主体的人工智能是一种与这些主体截然不同的类型, 它们之间的相互伤害, 也并不会被当作两个法律权利主体之间的侵权行为, 否则, 现实中的机器人比赛就应该被取缔, 两个机器人之间因磕碰造成的损害也应该由它们自身提起诉讼。理解这一检验的前提是明确“在传统俗语中存在的、现今语言表达中忽略的‘代理’ (on behalf of) 某人行为和为某人‘谋利益’ (in behalf of) 的行为之间的细微区别……[即]代理人和利益代表之间的差异”[19]114。一方面, 根据机器人原则, 人工智能实施的行为来自于人类的命令, 鉴于人具有道德主体性, 因此, 它能够代替人类去行动, 但这只是为了命令者的利益去实施某种行为, 包括对其同类造成损害;另一方面, 当人工智能受到损害时, 这一受损的利益诉求实际上也并非是人工智能的利益诉求, 而是控制这一人工智能的人的诉求———毕竟, 人工智能并没有道德自由。这就导致了即便现实的法律赋予了人工智能以法律权利, 人工智能在法律人格方面依然是存在缺位的。而欧洲议会向欧盟委员会提交的报告也印证了这一点。尽管根据报告, 人工智能可能享有诸多的自由, 但是, 这些自由的错误行使并不能导致由人工智能来承担相应的责任, 因为“无论以何种方式承担责任, 最终的责任承担者都是人, 这使得它的‘法律人格’显得多余和毫无必要。”[30]从这个意义上来说, 法律规范只不过恰好是用法律权利话语的修辞来表述人工智能这一事物, 而并没有使之成为一类真正的法律权利主体。这便是法律拟制权利的限度。

05

五、结语

人工智能的权利话语是人类想象力的产物, 而人类的想象力又不可避免地受制于人类中心主义。这就使得, 无论是借助主体范式还是关系范式来解读人工智能, 都不足以在人类和人工智能的交往行为中展现双向道德理由, 进而, 人工智能不可能拥有任何意义上的道德权利, 也因此无法获得道德主体资格。与此同时, 尽管法律规范能够不以道德主体资格为基础, 凭借自身设立人类和人工智能交往行为的双向法律理由, 使得人工智能在形式上拥有法律权利, 但是, 这一法律权利却因为仅仅限定于人工智能和人类之间, 而不足以支持人工智能自身的法律主体资格, 因此, 这些权利仅仅是修辞性的法律权利而非真正的法律权利。这就意味着, 只要在人类的想象中, 人工智能依然是“像人类一样”而非“是人类一员”, 那么, 人工智能的权利话语就必然缺乏基础, 需要接受进一步的批判。

参考文献

[1]胡凌.人工智能的法律想象[J].文化纵横, 2017(2) :108.

[2]马克思, 恩格斯.马克思恩格斯全集:第47卷[M].人民出版社, 1979.

[3]郑雨.工具与机器:马克思《机器、自然力和科学的应用》文稿的解读[J].科学技术哲学研究, 2012 (6) :69.

[4]段伟文.机器人伦理的进路及其内涵[J].科学与社会, 2015(2) .

[5]王晓阳.人工智能能否超越人类智能[J].自然辩证法研究, 2015(7) :104.

[6]费尔巴哈.基督教的本质[M].荣震华, 译.北京:商务印书馆,1984:63.

[7]马克思, 恩格斯.马克思恩格斯全集:第3卷[M].人民出版社, 1960:15.

[8]王绍源.机器 (人) 伦理学的勃兴及其伦理地位的探讨[J].科学技术哲学研究, 2015 (3) :103.

[9]王绍源.应用伦理学的新兴领域:国外机器人伦理学研究述评[J].自然辩证法通讯, 2016(4) :148.

[10]李小燕.从实在论走向关系论:机器人伦理研究的方法论转换[J].自然辩证法研究, 2016(2) :41.

[11]袁曾.人工智能有限法理人格审视[J].东方法学, 2017(5) .

[12]杜严勇.论机器人的权利[J].哲学动态, 2015(8) .

[13]张玉洁.论人工智能时代的机器人权利及其风险规制[J].东方法学, 2017 (6)

[14]毛立云.自然奴隶:磐石之上的种子——亚里士多德自然奴隶学说的哲学解读[J].上海交通大学学报 (哲学社会科学版) , 2015 (5) :43.

[15]Kerber, L.AConstitution Right to be Treated Like...Ladies:Women, Civic Obligation andMilitary Service[J].University of Chicago Law School Roundtable, 1993 (1) :99.

[16]Santoro,W.A.The Civil Rights Movement and the Right to Vote:Black Protest,Segregationist Violence and the Audience[J].Social Forces, 2008 (4) :1391-1414.

[17]郭忠华.变动社会中的公民身份:概念内涵与变迁机制的解析[J].武汉大学学报 (哲学社会科学版) ,2012 (1) :64.

[18]EuropeanParliament.Report with Recommendations to the Commission on Civil Rules onRobotics[R].A8-0005/2017:18.

[19]Wellman,C.Real Rights[M].New York:Oxford University Press, 1995.

[20]何哲.人工智能时代的社会转型与行政伦理:机器能否管理人?[J].电子政务, 2017 (11) :5-7.

[21]James,M.H.The Nature, Importance and Difficulty of Machine Ethics[J].IEEE IntelligentSystems, 2006 (4) :19-22.

[22]史蒂芬·霍金, 列纳德·蒙洛迪诺.大设计[M].吴忠超, 译.湖南:湖南科学技术出版社,2014:35.

[23]徐英瑾.具身性、认知语言学与人工智能伦理学[J].上海师范大学学报 (哲学社会科学版) , 2017 (6) :9.

[24]Murphy,J.G.Rights and Borderline Cases[J].Arizona Law Review, 1977 (19) :239.

[25]Mac Cormick,N.Children’s Rights:A Test-Case for Theories of Rights[J].Archiv für Rechts-undSoziatphitosophie, 1976 (62) :360.

[26]谭启平, 黄家镇.民法总则中的法人分类[J].法学家, 2016 (5):36.

[27]吴汉东.人工智能时代的制度安排与法律规制[J].法律科学, 2017 (5) :131.

[28]何怀宏.何以为人人将何为——人工智能的未来挑战[J].探索与争鸣, 2017 (10) :38.

[29] Hohfeld,W.N.Some Fundamental Legal Conceptions as Applied in Judicial Reasoning[J].TheYale Law Journal, 1913 (23) :30.

[30]郑戈.人工智能与法律的未来[J].探索与争鸣, 2017(10) :82.

规制与公法(ReguLaw)

识别左侧二维码即可关注

微信编辑:美郡

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180911B0NXRG00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券