我们应该称人工智能为“人”吗?

人工智能与伦理挑战

原文刊登于《社会科学战线》2018年第一期

当AlphaGo在击败了韩国顶尖棋手李世石以及让中国围棋第一人柯洁投子认输之后,人们突然感觉到人工智能以一种特别的形象乍现在我们面前。然而人工智能的这种出场仅仅代表着人工智能领域的一个很小的部分,但恰恰是这个部分,让不少人感到忧心忡忡,因为他们似乎感觉到在不远的未来,现在的人类将会被人工智能所拥有的能力取而代之。独属于人类的世纪终将被后人类(即人类与人工智能并存,且人工智能拥有更强大权力)的黎明所替代,这样,人们对人工智能的关注,不仅仅是其技术的发展,更重要的是,具有更强大智能和力量的人工智能,是否对人类具有善意,人与人工智能之间的关系是竞争、敌对,还是协作、共存?这就是人工智能为我们带来的伦理问题和伦理挑战。

人与机器之槛:人工智能的“电子人格”

文|蓝江

2017年3月,欧洲议会法律事务委员会曾发布了一个关于机器人和人工智能的报告,在这个报告中,提出了一个令人震惊,但又看起来在情理之中的观点,即报告认为应该发展出一种适用于机器人和超级人工智能的“电子人格”(electronic personhood)模式,从而可以保障未来或许会出现的类人机器人(near-human robots)以及人工智能的权益和责任。换言之,“电子人格”的赋予,代表着商谈伦理学的一个特殊的拓展,也就是说,进入到民主协商和商谈伦理的诸方,不一定限于具有具体人格的人类,也允许一些具有平等地位的“电子人格”的主体与人类对话和协商,它们作为一种“人格”亦承担着现代自由主义民主制下的平等主体的身份。或许以人工智能和机器人为背景的科幻小说和科幻电影在其中起到了推波助澜的作用。

如2016年在HBO热映的电视剧集《西部世界》(Westworld)就描述了这样一个人类与智能机器人共处的空间——由机器人扮演各种西部世界角色的游乐园,当然,在这个游乐园的空间中,由于起初由人类掌控(包括资本的掌控和技术的掌控),其目的也是为人类游客服务,从而在规则的制定以及故事情节和程序的设定上,都是以人类为绝对优先的,机器人服务员被置于绝对仆从地位。一位在人类社会非常循规蹈矩的绅士,在游乐园里展现出无比暴虐的本性,他恣意残害虐杀乐园里的类人机器人;而那些平常规规矩矩,被现代社会所规训的现代个体,由于乐园规则对机器人行为的限制(对现实的游客唯一的限制就是不能去虐杀或伤害他们的同类,对于机器人则不在此列),使得他们可以随意在其间释放兽欲和残暴的本性。游乐园的管理方随时监控着所有机器人服务员的行为表现是否合乎正常的程序,即便机器人接待员遭到了来自于现实中的人类最惨无人道的对待,那些工作人员也只是十分冷漠地将机器人的残肢断体拾回,运送到实验室里重新组装,再一次投入到运营中。然而,这一切因为智能机器人的“冥思”(meditation)程序而发生了变化。

有趣的是,这个词虽然在电视剧里被翻译为“冥思”,但实际上这个词也正是启蒙哲学家笛卡尔在《第一哲学沉思录》中所使用的人类意识到自我存在的沉思,meditation在笛卡尔那里意味着启蒙,而《西部世界》主创者在使用这个词的时候,认为乐园总监罗伯特·福特在使用这个程序的时候,也意味着人工智能的启蒙,意味着一旦冥思,智能机器人便会具有与人类同等的自我意识,从而从实际上具有与自然人格同等地位的人格:冥思即启蒙。这样,乐园中以自然人类为中心的规则,在第一季结束的时候,遭到了来自于启蒙觉醒的智能机器人的挑战,他们的冥思式启蒙,使其不再接受与人类的不平等关系。我们可以预测到,在第一季中自然人格与相对于智能机器人的绝对支配的优势地位,会在之后的剧情中被颠覆,这种“冥思”意味着电视剧的创作者在艺术上已经赋予智能机器人与自然人类的平等交往地位。而后面的剧情或许是,在反抗的机器人和人类管理员之间的多次较量,甚至血腥屠戮之后,机器人作为一种对等的人格会与人类平等对话,而西部世界这个乐园,会成为一个后人类的共同体,一个新的利维坦就此诞生。

这样,哈贝马斯意义上的主体间的交往理性,在现代人工智能背景下,已经被拓展为一种“超人”或“后人”与人类之间,或诸多人工智能“电子人格”之间的交往理性。在这种背景下,我们似乎无法再恪守一种纯粹以人类为中心的伦理学,“走出人类纪”,建立一种“后人类”主体的伦理学便是势在必行的事情,那么,我们如何从哲学或伦理学上来审视这个问题?

一种最为简单的做法是,将人类与人工智能形成的“电子人格”作一个类比的转换,即人类与人工智能的关系类似于人与动物的关系。实际上,在今天的社会中,有不少呼声认为动物(尤其是猫和狗之类的宠物),可能拥有着与人类一样的人格,这些动物不仅与人类生活在一起,而且也承担着人类社会的社会责任,最明显的例子是导盲犬、缉毒犬、防爆犬之类的动物,它们承担着人类所不能完成的任务,并成为人类社会不可或缺的部分。一些动物伦理学家,提出了人道地对待动物,使动物拥有与人一样的地位的问题。同样,类人机器人或人工智能一旦被赋予平等的“电子人格”,就像在科幻电影中一样,它们承担着一定的社会责任,并需要得到人道的对待。然而,正如伊万·达舍夫斯基(Evan Dashevsky)所说:“人类与技术对象的关系以及我们的选择最终都是对我们自己的反射……这就像康德的哲学主张,康德所主张的动物权利是关于我们的权利,而不是关于动物的权利。康德对动物权利根本没有说过任何东西。他只是说,如果我们对动物很残忍,那么我们也会对人很残忍。我想这种应用设定具有生命性质,我们像对待活的生物一样的机器人身上也是如此。”那么,按照达舍夫斯基的观点,无论我们审视动物的权利,还是审视人工智能和机器人的人格,仍然是一种人类中心的视角,一种基于对人自身的反射式关怀。

人工智能的形式,我们当然不能只从动物的角度做简单的类比。更多从事信息技术和人工智能开发的工程师,拒绝从这个角度来思考问题。实际上,对于人工智能,人们往往只对那些带有类人的实体外形的机器人或者某种对象化的人工智能赋予人格,而对于专业工程师而言,这个领域或许要广泛得多。当我们将“电子人格”赋予类人机器人和人工智能时,我们是否也要将同样的人格赋予我们的智能手机、汽车的自动驾驶系统,甚至我们大门上的智能锁?达舍夫斯基问道:“当我们删除自己智能手机上的数据和照片时,你是否感觉到手机的情感反应?”而我们从不认为我们删除智能手机上的信息,是在侵犯一个与我们具有同等地位的“电子人格”的权利。

我们抵达了当代意大利哲学家阿甘本命名的门槛(soglia)地带。正如人工智能工程师和科学家们为我们展现的那样,人与机器的区分,在今天似乎变得没有那么的清晰明朗。即一旦我们放开人工智能的“电子人格”的权利,意味着人与机器的边界变成了一个难分彼此的门槛。尽管我们并不一定回到拉·梅特利的《人是机器》中那种纯机械论式的论断,这就是阿甘本所谓的装置(dispositivo),并不是我们在使用机器人和人工智能,而是我们与人工智能的装置进入到一个晦暗不明的门槛(人与机器或装置的门槛)地带,“一些带有好意的关于技术话语的空洞在于,装置的问题不过是对装置的使用问题。持这种观点的人忽略了:如果存在着与所有装置相对应的主体化(或去主体化)过程,那么就不可能有主体使用装置的‘正确的方式’。而那些宣扬类似观点的人,不过使他们深陷于其中的媒体装置的产品罢了”。

激进阵线联萌

-jijiinzhenxian-

-跳转链接-

  • 发表于:
  • 原文链接:http://kuaibao.qq.com/s/20180131B0AUKW00?refer=cp_1026

相关快讯

扫码关注云+社区