首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器人三大定律过时了吗?如何为AI立宪?

短短数年之间,AI大热,讨论的人也多了。一时之间,百家争鸣,文组理组似乎都有话要说——这么说当然是客气了,说文组理组忙着相互贬低大概更符合实情。此刻我们难免想起科幻小说大家以撒・艾西莫夫的「机器人三大定律」。容我们先复习一下这位或许是史上著作被改编电影最多的科幻小说家所独创的三大定律吧:

一、机器人不得伤害人类,或坐视人类受到伤害。

二、在不违反第一定律的前提下,机器人必须服从人类的命令。

三、在不违反第一与第二定律的前提下,机器人必须保护自己。

至为明显的是,以「机器人三大定律」名之显然是种简化——准确地说,正确名称该是「防范机器人三大定律」(笑)。是的,讨论人类该如何防范机器人反客为主奴役人类,当然一点也不新鲜,我们早已在无数好莱坞电影中一再复习,简直厌烦无比。然而我必须说,尽管审美疲劳,此事依旧不容忽视。未来已至,人命关天——暂且袭用笔者个人著作《噬梦人》所涉之相关概念——「为AI立宪」的时刻已翩然临至。这已是「人类基本法」或「AI基本法」形诸文字的时机,艾西莫夫的三大定律或许堪用,然而我们需要更深刻的思索。而我必需说,其中关键,可能就在于「意识」一事。

如何「为AI立宪」?如何预判未来?巨变时代里,当我们意图深化思索,标准的核心方法是:回望过去(我以为这几乎是此时此刻深化思索的SOP了;我们必须承认,所谓「现在」,尽管既非大战争时代亦非大革命时代,但货真价实,确实就是个前此数百年前所未见的「巨变时代」,因为人类极可能即将面临一关于人类自我定位的历史转捩点)。是以,于新著《人类大命运》(简体版名「未来简史」)中,畅销书《人类大历史》作者、以色列历史学者哈拉瑞(Yuval Noah Harari)全面检讨了「意识」这件事。

等等。且慢。为什么是「意识」?为什么要讨论意识?

对,没错,「就是」意识。因为「意识」与「智能」不同。因为,回望过去,人之异于禽兽者,可能就在于意识;是以,人之异于AI者,或许,也在于意识。 AI或许可轻易拥有智能,但极可能缺乏意识。

等等,再等等。你可能难免疑惑:Siri不是早就能陪你打屁调情说冷笑话了吗?微软的AI小冰,不已经是个诗人了吗?特斯拉的自动驾驶AI,车不开得好好的吗?

依照哈拉瑞的论点,那不是「意识」——那依旧,仅仅堪称「智能」。

关于此题,关于意识或智能,我们或许有个较为古老陈旧的认知:图灵测试(Turing Test)。早在1950年代,英国数学家亚兰・图灵(Alan Turing)已提出人工智能的测试标准。如何断言一机器拥有所谓「智能」?图灵的原始论断是:设想你向一「正常人A」发问,聆听其回答;亦向一「机器B」发问,亦聆听其回答。若经由若干回合问答来回后,你无法分辨A与B何者为机器、何者为人,则表示机器B通过图灵测试,机器B具有智能。

有趣的是,时值此刻,拥有后见之明我们恰恰可自图灵测试的判准中看出「判别智能」之难。我的意思是,图灵测试所提出的,是一「操作型定义」——一实作情境下之判准。此为一外部判准,由外部实作情境决定,来自于进行图灵测试的测试官本人之主观感受,而非来自于AI机器内部。换言之,至少在那个年代,我们无从自机器之内部运算机制断言该机器是否具有智能;即使我们明明白白完全掌握了该机器运作的程式码亦然。这说来奇怪:你完全知道面前机器之内部运作程式,却无法断言这样「算不算」具备智能?这什么意思?我以为,图灵可能已然明白,「智能」之定义原本便虚无缥缈,人言言殊,难以自内部掌握;是以与其于内部纠缠不清,不如跳脱出来,自外部实作中下手。

吊诡的是,这似乎恰恰预示了人类此刻的难题。人之异于禽兽者几希,人之异于AI者几希;但时至今日,图灵测试早已被为数众多的AI所攻破,必须接受此一事实。但尽管如此,人类一点也不甘心:是的,今日,一位极优秀的聊天机器人或许能轻易通过图灵测试,但真能说它们(AI们)和我们一样吗?我必须说,其中一个重点其实是,在图灵的时代,图灵并未精确定义用词。这点从他提出的原始问题「Can machine think?」即可明确得知。何谓「智能」?何谓「意识」?何谓「think」?原本就不容易说明清楚,即使到今天依旧造成相当程度的困扰。我以为,人类的不甘心(「我才不相信聊天机器人『跟我们一样』!」)其实标志了人对自己的迷惘。什么叫「跟我们一样」? 「跟我们一样」到底是什么意思?

而将图灵测试与机器人三大定律合看,某种「内部障碍」立刻被凸显出来。何谓「内部障碍」?请注意,图灵也好,艾西莫夫也好(恰好一个理科一个文科),二人显然都无法以自机器内部精确定义人工智能,仅能自外部实作中另辟蹊径;是以,图灵测试以及机器人三大定律,走的都是「操作型」路线。所不同者,图灵测试是本质性的(判别一「东西」——举例,一程式,是否具有人工智能);而「防范机器人三大定律」则是工具性的,试图为人类与AI的相处建立规范。

然而,为何都是「外部」?主要原因当然就是,人类对「跟我们一样」这件事,原本便一无所知——「我们」是怎么思考的,人类从来就在持续思索、持续研究中。人类对人类中枢神经的「内部」机制,从来就没有弄懂过。

好了,所以我们似乎得到答案了。如何「为AI立宪」?如何因应一个AI即将取代许多人类执行低阶工作的未来?在这样的未来中,人类与AI如何相处?如何避免AI对人类产生危害?我的个人建议是,现阶段的权宜作法,可能就是先避开本质问题,先寻求对工具性问题之解决;亦即,先避开「内部」,专注于「外部」。艾西莫夫的三大定律未必尽善尽美,但方向正确。幸好,幸好我们还没进展到要被逼着立刻解决本质性问题(内部问题)的地步。 (当然了,这也正是人类行为的危险性——在还没有弄清楚之前,我们已经开始使用AI了。这有多危险?坦白说,我不知道。)但我们必须承认,那一刻终将到来——届时,思考如何精准定义「意识」,将是我们无法回避的问题。这点下回再谈。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20190703A07IQ500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券