首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

我们怎样应对人工智能?

我们怎样应对人工智能?

田松

北京师范大学哲学学院科学史与科学哲学教授

田松,三联书店供图

“怎样应对人工智能”是个比较比较中性的题目,但中性的题目下包含着我比较激烈的立场。

人工智能是个什么东西?在我看来,人工智能是一个谱系,它很宽。比如,有很弱智的人工智能。刚刚说到关于汽车的问题,不用说自动驾驶,就是现在很多车都有的巡航,在我看来也是某种程度上的人工智能。

现在某些人对人工智能表示忧虑,比如有人工智能战胜人类的事情。实际上,在我看来人工智能早就战胜人类了,它肯定会战胜人类。这取决于你怎么样定义人类、定义智能。如果你把智能定义成计算、存储这些功能,我们肯定是斗不过机器的。深蓝,更深的蓝,阿尔法狗,在这些领域,人工智能都已经战胜人类了。这个时候,很多人会有些忧虑。我们整个社会要面临一个巨大的拐点,这个巨大的拐点就是人工智能充分发达,导致大量的行业不需要人了,人类会大面积的失业。这样的社会问题会导致整个社会结构发生剧烈的变化。我们更担心的是这种场景。

《机器公敌》,它的原名是《I Robert》,这部片子大家都看过。我们担心机器人的智能到了某一天,它获得了自主能力,它会反叛人类,需要我们面临着人和机器之间的战争。这件事情,我倒是没怎么忧虑过,看《终结者》这些科幻电影的时候,我不怎么担心这件事情。因为我觉得未来不会发生人和机器的战争,因为人本身已经变成机器了,机器和机器不会有什么战争。

然而这种场景,貌似它正在走近我们,去年10月26日,沙特阿拉伯授予机器人索菲亚以公民身份,索菲亚成为史上首个获得公民身份的机器人。现在看它的形象,很像人了。

我对这个事情很困惑,我不知道沙特阿拉伯人究竟怎么想的。它获得了公民身份是什么意思?它获得公民身份,它应该有户口了,它可以有投票权,它可以考驾照了,它可以买房子了。好像据说最近的消息是它想要结婚,它要获得公民权了,所有这些权利都是它应该有的。这是科学技术哲学领域非常好的研究题目,将来有合适的机会,我找个学生研究一下。既然它已经获得了公民身份,似乎离下面的一步就不那么远了。

这位索菲亚在去年的12月12日来到了中国,出席了国际知商高峰论坛,它真正的享有公民权了,开始以公民的身份在活动了。这个时候,机器人反叛这件事情就变得有可能了。它有公民权了,它可以投票了。如果它看谁不顺眼,要跟谁打一架,机器厉害啊。就算是去赌场,它的计算水平也比别人高,赌钱也会赢。机器反叛这件事情,貌似正在发生。

我是特别相信科学的,科学能力确实很强。这是我的判断,机器人终将突破一切图灵测试,使人难以分辨。目前索菲亚的外形还比较僵硬,这可能是因为材料技术还弱了一点。我们相信材料技术、材料和芯片的连接会越来越好。大家都知道图灵测试,我要通过对话判断出后面是机器还是人。图灵测试的意思是说,如果你不能判断后面那个是机器还是人,那个机器就已经通过了图灵测试。我们会设计各种各样的方式判断真假,解决斗争。

当你设计出用接吻来判断它是机器还是人的时候,那个机器一定会学会接吻。也就是这件事情一定会发生。我们开始担心如果发生了该怎么办?如果无法分辨机器人和人了,我们该怎么办?如果大规模的人工智能导致人类的大规模失业,我们该怎么办?

当我们设想这个事情的时候预设了一个事情,就是这件事情一定会发生,这件事情的发生是不可避免的。机器智能逐渐增加,这件事情是应该的。我们只能考虑发生以后怎么办,甚至可以提前预防,一旦发生了该怎么办。这让我有一点困惑。所以,我提出了一个这样的问题。

这件事情发生在两年前。曾经是更深的蓝战胜国际象棋大师的时候,围棋棋手还非常得意,围棋比它复杂得多,机器可以战胜他,战胜不了我们。很快,2016年3月9日,阿尔法狗以4:1战胜了李世石。全世界人们都知道阿尔法狗战胜了李世石。阿尔法狗它自己知不知道?阿尔法狗知道它自己战胜了李世石吗?如果阿尔法狗自己不知道它战胜了李世石,那么索菲亚的公民权是怎么回事呢?我很怀疑机器人能够获得“自我”的概念。

机器人是人吗?机器人不是人,它是人造的机器,它是一个人形的机器。所以,归根到底它是一个机器,它只不过是看起来像是一个人。索菲亚的公民权就让我有点更加疑惑,它是什么意思?

我们看武侠小说中有一种摄魂大法。这个人的武功很强,但他的魂被拥有了摄魂大法的人摄走了。他的行为看起来是具有自主行为的,但实际上是一个傀儡。这个时候,我们就不能说这个被摄了魂的傀儡是一个拥有自主能力的人。在这个意义上,我不认为索菲亚是一个拥有自主能力的人,我也不认为阿尔法狗是个拥有自主能力的具有自我概念的人。

我们真正要问的问题是为什么要造这个东西?这个东西不是人造的吗?它们不是科学家造的吗?你担心它造出来以后会有这样那样的问题,你为什么造它呢?——科学家为什么要造一个让人分辨不出来是人还是机器的机器?造出来以后会产生各种各样的问题,这个伦理问题,那个伦理问题,或者是大规模失业。有很多人开始担心这些问题了,为什么科学家还要造呢?

公众是否有权过问这件事?公众是否有权提前干预这件事?这个事挺危险的,你们这些科学家还是别造了。科学家说你又不懂科学,瞎吵吵啥呀?

关于科学与社会的关系,关于科学共同体。长期以来有一种观念叫做“特殊论”。这四条是哈佛大学肯尼迪政府大学的席拉教授总结的。

知识论独特:科学是唯一真的知识体系,科学家是探索自然奥秘,他是追求真理,他是中性的客观的。所以,决策者应该听从科学家的建议。他是真的科学体系,这个事要怎么办。比如,我们要不要搞无人驾驶、要不要造一个让人分辨不出来是机器还是人的机器,决策者要听从科学家的建议。当然,公众也得听科学家的。

管理学独特:科学的专业性使得外行无法管理,所以需要科学共同体自己管理,也就是科学怎么玩儿。刚刚我们讲的自动驾驶分几代,这几步怎么走,科学家自己商量,外人就别参与了,科学共同体要自我管理。我设计好了,跟你们说一声就行了。

社会学独特:说的是科学具有自我纠错机制,不用担心我们自己管不好,我们肯定会越来越好的,就算是犯了错误,我们自己也会改的。

经济学独特:科学总是要带来社会经济利益,只要你投资科学技术,总是会有回报的。

这几条“特殊论”将科学、社会和公众的关系界定好了。科学知识是真的知识,你们就听我的,你们外行不懂科学,我们研究好了,告诉你是什么就行了。科学怎么玩儿,你们也不懂,也别参与,我们自己管理,我们自己参与。反正出了错,我们自我纠错,我们越来越好。为什么要支持我们呢?因为支持我们,你们总是会有回报的,你们总是会有好处的。所以,很简单,你把钱给我,我们玩儿就是了。

如果我们接受了这种“特殊论”,对于自动驾驶应该怎么样运行,公众是无权过问的。对于科学家是否要造出来让人分辨不出来是机器还是人的这件事情,我们也是无权过问的。

这算是好消息,还是坏消息呢?我把它作为好消息。所有这四条,我们做科学史和科学哲学这个学界的内部早已一一攻破,这四条都是不成立的。

就现在的科学共同体而言,这个科学共同体是不具有自我约束的机制的,只有自我扩张的动力。每个领域都说自己无限的重要,搞核能的说搞核能的更重要,搞水利的说水利更重要,搞太阳能的说太阳能重要,搞转基因的说转基因重要,搞生态农业的说生态农业重要。每个领域都在说自己最重要,每个领域都在自我扩张,都有自我扩张的动力,没有哪一个共同体愿意自我约束。

在这种情况下,如果我们继续接受“特殊论”,这个社会永远只能在科学的负面效应发生之后事后补救,不可能防患于未然,不可能提前防范。

上个月美国东部时间2018年3月19日晚间10时许,一辆Uber无人驾驶汽车在亚利桑那州的坦佩市撞死一名妇女。3月23日美国加利福尼亚一辆特斯拉SUV Model X在自动驾驶状态下发生车祸,汽车撞向高速公路未封闭完全的隔离带引发起火,后来两车也因此追尾,死者为苹果公司一工程师及其父亲。

自动驾驶的汽车上路,这件事情是谁批准的?这个自动驾驶的汽车上路了,我怎么不知道呢?或者说我怎么事先不知道呢?亚利桑那的公路上、加州的公路上,其他的驾驶人知不知道旁边有一辆车,那辆车是自动驾驶?他知不知道?他是不是有权知道?比较惨的是后面追尾的,后面追尾的恐怕不是自动驾驶。他们是否应该事先知道?他们应该在什么样的程度上事先知道?这件事情我应该在什么时候知道?我应该提前多久知道?进而言之,是不是它在研发的时候,我有应该知道?是不是它在研发的时候,我就有权干预它?

可能我们觉得自动驾驶在实验室了,它随便研发。只要不批准它上路,它也不会闹出什么事来,你事先不知道也没关系。这件事,我大概也可以同意。虽然我们可以“阴谋论”的想象某一个别有用心的人把研制好的一大批自动驾驶的车从工厂里偷出来,让它上路,往里面输入一些恶意的指令,这帮车就跑到街上去闹事。你说这个事你可以放心,我们的仓库锁的很紧,你可以放心。我大概可以接受。

可是某些研究领域不是那样。比如说,某些病毒的研究、某些细菌的研究、实验室里的转基因的研究、试验田里的转基因的研究,它好像不是那么好控制。纳米的研究,纳米的级别是可以通过皮肤渗入进去的,做出什么东西,一抹就进去了。这个东西飘散在空中,你是拦不住的。你是否能够完全地控制你所研究的这个东西?

我的问题是,我们是不是应该建立一个机制,让科学活动更透明。我们是不是要对科学活动进行监督?我们预先的防范?比如,自动驾驶这敢事情。

所以,我的结论是这样的,我们现在如何应对人工智能,这一个问题是我们事后怎么样防范的问题。我们可不可以把问题往前提?不仅仅要考虑如何应对人工智能,而是要考虑如何约束科学家,如何制度化的约束科学家。

这里就有“双刃剑”的问题,没有人敢于宣称科学技术就是完美无缺的,我们都已经承认它有负面效应。既然我们承认了它有负面效应,如果这个负面效应越来越多,如果这个负面效应多过了50%,那我们对科学技术的总体评价是不是要翻过来?虽然我们已经承认了负面效应,但我们对负面效应、“双刃剑”的标准阐释是说虽然科学技术给我们带来一些麻烦,但总的来说它给我们带来的好处还是远远大于它给我们带来的麻烦的。而且它带来的麻烦还会随着科学技术的进步发展而得到解决的,所以你不用担心。

但是,我的问题是这件事情是真的吗?科学技术所带来的负面效应真的随着科学技术的进一步发展而得到解决了吗?我特别想找一个例子。但是,很遗憾,我没找到。从这个角度,我提出另外一个问题,1962年,雷切尔发表了《寂静的春天》之后,全世界范围内科学技术的负面效应是越来越多了,还是越来越少了?在中国的范围内,1980年之后,中国人有了环保的概念,我们也建立了国家环保部。中国范围内科学技术的负面效应是越来越多了?还是越来越少了?

按照刚才的解释,新的技术越来越多,可是新的技术并没有解决前面那个技术的负面效应,只不过是不产生那个负面效应了。然而,新的技术仍然带来新的负面效应。比如,甲基叔丁基醚会诱发癌症、哮喘,会污染水源,会导致新的问题。

科学家总是宣称他们将要发明某种新的科学和技术解决我们当下面临的某一个问题。但是,我们当下所面临的这个问题恰恰是科学家以前发明的为了解决另外一个问题的那个技术所导致的。按照这个逻辑,肯定是负面效应越来越多。

在这种情况下,我们考虑如何约束科学家,如何制度化地约束科学。或者换一个委婉的说法,我们怎么样提前防范那些可能的负面效应,这件事情也不是不可思议的。防范的情况下,当一个新的科学技术诞生了,我的第一反应不是为它欢呼、赞美它,我的第一反应是警惕它会导致什么问题。如果它会导致这个问题,为什么我们不会提前把这个问题拦住呢?为什么不可以权衡一下?它将导致的问题和现在存在的问题,哪一个更重呢?

我有一个想法,在生命科学领域,是不是可以把人文学者和普通公众加入进去,让他们有更多的发言权?我们是否可以建立一个伦理审查委员会,针对所有的科学领域?比如说,自动驾驶。在你设计这个实验,你打算要做这个事情的时候,先要通过伦理审查委员会,先要通过公众的认可,觉得这个好像还可以,你们就大胆地做吧。而不是像现在这样,你把什么东西都做完了,然后告诉我,我只能接受。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180422A0TLGR00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券