首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

图灵奖得主Judea Pearl:AI发展止步不前,前沿技术不过“新瓶装旧酒”

编译 | 田小雪

编辑 | 吕梦

微信 | ai_xingqiu

网址 | 51aistar.com

编者注:Judea Pearl是美国计算机科学家和哲学家,同时也是2011年度图灵奖获得者,主要研究人工智能概率方法和贝叶斯网络。

说到人工智能,Judea Pearl绝对功不可没。上世纪80年代,在他的主导之下,出现了对机器概率问题的研究。但现在,他已然成了该领域持有最为尖锐批评意见的科学家之一。最近,他新出了一本书,名为《疑问之书:因果新科学》。在书中,他指出,当下人们对于真正的智能缺乏一个完全了解,因而给人工智能的发展带来了负面影响

早在30年前,人工智能研究面临的主要挑战,还停留在机器的编程问题上。也就是说,如何能够将一种可能的原因与一系列可观测条件结合起来。

最后,Pearl发现可以借助一种叫做贝叶斯网络(Bayesian)的结构,来实现原因和条件的结合。举个例子,如果某人从非洲回来之后,身上开始疼痛,同时还出现发烧的情况,那么在贝叶斯网络的帮助之下,机器就可以判断出这个人很有可能是得了疟疾。

正是由于在贝叶斯网络这一块做出了不小贡献,2011年,Pearl赢得了计算机科学领域的最高荣誉——图灵奖。

可现如今,在Pearl看来,人工智能领域的发展已经在概率关联中陷入了泥沼。各家新闻媒体开始在头版头条上,大幅报道机器学习和神经网络所取得的最新研发突破。我们能够看到计算机对弈顶尖棋手获胜的新闻,也能够看到计算机代替真人驾驶汽车的新闻。可对于这些,Pearl都不是很感兴趣。

他认为,当下人工智能取得的最为前沿的研发成果,仅仅是对上一代机器已有功能的简单加工,提高了在大量数据中寻找隐藏规律的效率而已。用他的话说:“目前,深度学习所取得的一切瞩目成就,就只是曲线拟合。”

今年已经81岁高龄的Pearl,在新书中详细介绍了真正智能的机器所应该拥有的思维方式。他表示,其中最为关键的要素,就是用因果推理来代替关联推理。还用上文所举的例子,机器不仅要有能力将发烧与疟疾关联起来,还要有能力推理出,是疟疾导致了发烧

也就是说,疟疾是因,发烧是果。一旦具备了这种健全的因果推理框架,机器才有可能问出一些反事实问题。比如说,在某些干预因素出现之后,因果关系会发生什么样的变化。

在Pearl看来,只有机器能够主动提出这些反事实问题,才算是具备了科学思维。不仅如此,为了能够让这一思维方式成为现实,Pearl还介绍了一种形式语言,即21世纪版本的贝叶斯网络,能够让机器以概率方式进行思考推理。

Pearl解释说,他希望因果推理能够为那些机器提供一种可以比得上人脑的智能水平,让它们更加高效地与人类进行互动交流,甚至能够成为有自由意志、有道德素质的个体

就在前不久,Quanta Magazine在圣地亚哥的一次会议上采访了Pearl,随后还通过电话进行了后续采访。下面,就是经过整理和编辑之后的访谈内容。

问:为什么给新书取名为《疑问之书:因果新科学》呢?

答:之所以取这个名字,主要就是想总结一下我在过去25年中对于因果问题的研究,包括该问题在人生中的意义和影响,以及我们如何能够根据事物内在的因果关系,找到目标问题的正确答案。我感觉很奇怪,这些相当重要的问题,居然遭到了科学的忽视和遗弃。因此,我希望能够借助这本书来填补当中的科学空缺。

问:可我认为,说科学抛弃了因果关系,还是挺奇怪的。毕竟科学的核心和实质,不就是因果关系吗?

答:当然,科学的实质就应该是因果关系。但其实,在那些科学方程式中,你是看不到这一实质的。代数语言是具有对称性的,也就是说,如果甲能够告诉我们乙,那么乙就能够告诉我们甲。但我所强调的,是确定性的关系。我们永远不可能用数学语言来描述一个简单的事实,比如说,即将到来的风暴会导致气压计读数降低,但反过来就不一定成立了。

在现实生活中,我们是会遇到很多不对称关系的。甲能够导致乙,并不一定就意味着乙能够导致甲。可是,对于这些不对称关系,数学是无法利用其语言来帮助我们理解的。我知道,这么说似乎是违背科学的,听上去就很糟糕。

但科学就很宽容了。当它发现我们缺少一种针对非对称关系的微积分时,就会鼓励我们去主动创造。而在创造的过程中,数学就要发挥它的作用了。我很开心能够看到,有一种因果微积分可以解决长久以来那些最为伟大的统计学家都无法解决的问题。

问:我们都知道,早在数十年以前,你就已经是人工智能领域的大牛,专门研究机器的概率推理问题。能不能给我们介绍一下那个时候人工智能领域的发展概况?

答:上世纪80年代早期,我们所遇到的那些问题,都是与推测和诊断相关的。比如说,医生根据病人的各种症状,来试图推测他患有疟疾或其他疾病。当时,我们希望能够有一种自动化系统、一种专家系统,能够代替真实的专业人士,包括医生和矿工等等。所以,那个时候,我就想到了机器的概率推理问题。

但不幸的是,标准概率计算需要较大空间和较多时间。后来,我就提出了所谓的贝叶斯网络。它是需要多项式时间的,同时也比较简单易懂。

问:可是,我们能够看到,在你的新书当中,你把自己看作是现如今人工智能领域的“背叛者”,此话又是从何而来呢?

答:当下,大家都在尽自己最大努力开发能够让机器用不确定性推理的工具。而与此同时,我却将关注重点放在了另一个更具挑战性的任务上,即让机器用因果关系进行推理。

我有很多同样致力于人工智能研究的同事,都将自己的全部精力放在了不确定性推理上。不仅如此,还有很多研究人员仍然在关注人工智能在诊断方面的用途,丝毫不考虑问题的因果关系。他们满脑子想的,就只是提高预测和诊断的准确性。

我给你举个例子,现如今我们看到的所有机器学习工作,都是在诊断模式之下进行的。比如说,用“猫”和“老虎”的标签来区别不同的物体。他们根本不会考虑干预问题,只想识别出某一物体,进而预测它未来的发展演变趋势。

如果我们想要让机器针对干预和内省进行推理,那就必须要采用因果模式。光是关联远远不够,这是一个数学上的事实,并不只是一个简单的观点。

问:可是,大家都对人工智能未来的发展可能性十分期待,难道你不是吗?

答:就目前而言,我认为他们在深度学习这方面的研究,已经陷入了一种僵局,无法在关联这个问题上取得进一步的突破。我知道,如果说深度学习目前所取得的最为瞩目的成就,完全就只是数据的曲线拟合,或许是对该领域发展的不尊重。但说实话,如果从数学的角度来看,不管你处理数据的技术有多高,也不管你从数据处理中得到了什么结论,甚至不管它有多么复杂,其实质仍然是曲线拟合。

问:从对曲线拟合的态度来看,机器学习目前所取得的成就,你似乎不是那么满意,不是那么感兴趣,对吗?

答:不不不,我还是相当满意的。因为我们根本就没有想到,曲线拟合能够解决如此之多的问题。它用事实证明自己有能力解决我们所遇到的问题。但我所关注的是,未来的发展如何?接下来,我们需要做些什么?它能够做些什么?会否出现一位机器人科学家,能够借助实验来为那些悬而未决的科学问题找到正确答案?除此之外,我们还希望人类可以与机器之间进行有意义的互动交流。所谓有意义,就是指能够与人类的思维和直觉相契合。

如果脱离了人类对于因果的直觉来谈论机器人,那么彼此之间的互动交流就没有任何意义了。我们人类可能会说:“其实,我应该可以做得更好。”但是,机器人是不会这么说的。因此,我们就失去了一个重要的沟通渠道。

问:那么,如果未来机器真的能够共享我们对于事物因果关系的直觉,你觉得发展前景会如何呢?

答:我们最好要能够给机器配备一种环境模式,如果某一机器缺乏现实模式,那么你就无法指望它在现实生活中会有智能的行为表现。

首先,第一步,人类需要为机器编写一些现实的概念模式。或许,这一过程需要大约10年的时间。其次,第二步,机器要自行对这些模式进行假设,并且在实验证据的基础之上进行自主验证和重新定义。当初,科学也同样经历了这样一个过程。最初,我们开始于地心说。到最后,我们正确认识到了日心说。

机器人也是一样,它们彼此之间或者与人类之间,都能够进行互动交流,以自己的方式对这个充满假设的世界进行翻译和理解。

问:很显然,你的想法与当下人工智能行业中的大多数人都不一样。那么,当你与他们分享自己的观点时,对方反应如何?

答:说实话,现如今人工智能行业真的出现了不少流派和分支。首先,有些人到现在还沉浸在机器学习、深度学习和神经网络所取得的发展成果当中,他们并不了解我现在所说的内容,仍然希望能够进一步在曲线拟合方面实现研究突破。但如果现在换成那些并非一心只关注数据统计学习的人工智能研究员,他们就会立刻与我产生共鸣,了解我现在所谈论的因果关系推理。就在过去两个月的时间里,我还看到了好几篇论文,是专门讲述机器学习发展局限性的。

问:那么,你的意思是,当下科技行业存在一种偏离机器学习的发展趋势?

答:其实,这并不算是一种发展趋势,只是大家发自内心对未来发展走向提出疑问,并且进行努力探索。至于前面所说的机器人自由意志问题,我想或许还是需要稍微说一下。首先,可以肯定的是,我们将来一定会研发出具有自由意志的机器人。但与此同时,我们需要搞清楚究竟应该如何为那些机器人编写程序代码,以及我们究竟能够从它们身上学到些什么、得到些什么。

问:那么,等机器人有了自由意志之后,会非常明显地表现出来吗?

答:在我看来,如果机器人有了自由意志,那么首先会表现出来的地方,就是彼此之间反事实互动和沟通的能力。比如说,甲机器人对乙机器人说:“其实,你应该可以做得更好。”

想象一下,如果某一团队中的所有机器人都开始用这样一种语言进行相互交流的话,那我们就可以肯定它们绝对是拥有自由意志的。举个例子,如果现在有一队机器人在踢足球。其中,一只机器人说:“你刚才应该把球传给我的,我一直在等你,可你就是没有传。”这个时候,很明显,它们就已经有自由意志了。简单的说,一旦有了自由意志,最为突出的表现是话语之间的沟通,其次才是传球的动作互动。

问:既然已经说到了自由意志,我想我应该问一问你关于这个问题的负面影响。一旦机器有了自主决策能力,那或许就会做出一些不太好的事情。再有,我们如何知道人工智能到底发展到什么程度会做出一些不太好的事情呢?

答:所谓不太好的事情,或许是指贪婪的欲望,或者悲伤的情绪。如果换成是人,我们有相关的法律条例作为规范。但机器人,并没有。所以,如果你发现它们有时候不再听从相关指令,会自行忽略某些部件指示,仅仅听从其中某些部件的指示,那可能就出问题了。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180521A1T37800?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券