深度 | 从规则推理到数据学习:人工智能该学习人类的思维方式吗?

选自sciencemag

作者:Matthew Hutson

机器之心编译

参与:乾树、刘晓坤

近日,《Science》自由撰稿人 Matthew Hutson 在该期刊上发文,从婴儿学习、先验知识、因果推理和物理直觉的角度讨论了人工智能的当前现状,并以目前已被视为过时的基于规则的 AI 和当下最热门的基于机器学习的 AI 作为两个极端参考(人类智能处于过渡阶段),帮助人们思考人工智能的未来走向。

视频内容

2 月的某个周六上午,穿着条纹衬衫和紧身裤的 3 岁孩童 Chloe,正在摆弄它的新玩具。她的爸爸,纽约大学的发展认知科学家 Gary Marcus 带回了一些粘连乐高积木的胶带。精通乐高的 Chloe 对此很感兴趣。

但她一直在向上搭。她可以借助胶带弄出别的花样吗?Marcus 建议靠着桌边开始搭建。十分钟后,Chloe 开始在墙上贴胶带。「我们最好在妈妈回来之前做完,」Marcus 一本正经地说,「她会不高兴的。」(剧透:墙面漆会受影响)

其实 Marcus 暗暗地在做一个实验。Chloe 会将她学到的知识应用到新的环境中去吗?过了几分钟,她就依墙搭建了一个乐高雕塑。「爸爸,我做到了!」她大叫着。Chloe 正在展示关于适应性的常识,这是计算机科学家一直在努力复制的一种智能。Marcus 认为,人工智能领域(AI)会从 Chole 搭积木这件事上学到一些经验。

机器学习研究员认为,基于海量数据训练的计算机可以学习任何东西,包括常识,而常识几乎没有任何编程规则。这些专家在我看来「有一个盲点,」Marcus 说,「这是一种社会学的东西,通常与物理学中的简单性原则相悖。」

他说,计算机科学家忽视了认知科学和发展心理学数十年来的研究,即人类有种本能:在出生时或儿童早期出现的直觉编程能力,这帮助我们像 Chloe 一样抽象并灵活地思考。

然而,许多计算机科学家都在急切地探索简单的人工智能的极限,即便他们在机器学习领域取得不少成就。「我认为,大多数机器学习研究员对于投入大量背景知识的做法持有偏见,因为从某种意义上说,我们认为这是一种失败,」科瓦利斯俄勒冈州大学的计算机科学家 Thomas Dietterich 说。

他补充道,计算机科学家也很喜欢简单,并且厌恶调试复杂的代码。麻省理工学院(MIT)的心理学家 Josh Tenenbaum 说,像 Facebook 和 Google 这样的大公司是促使人工智能向这个方向发展的另一个因素。这些公司最关心的是狭义定义的近期问题,例如网络搜索和人脸识别,一个「小白」AI 系统可以在大量数据集上进行训练并且成效显著。

但从长远来看,计算机科学家期望人工智能将承担更多更棘手的任务,这需要灵活性和常识。他们想创造解说新闻的语音机器人,可以解决城市交通拥堵的自动驾驶出租车,以及护理老年人的机器人。「如果我们想要创造一个像 C-3PO 一样与人类世界进行交互的机器人,」Tenenbaum 说,「我们将需要在更通用的环境中解决所有这些问题。」

一些计算机科学家已经在尝试。今年 2 月,麻省理工学院希望用工程术语来理解人类智能,并启动了 Intelligence Quest 研究计划,现已筹集数亿美元。研究员希望这些工作将 AI 发展到纯机器学习和纯本能之间的领域。它们会按照一些嵌入式规则启动,但在之后开始学习。Tenenbaum 说,「从某种意义上说,这就像古老的先天或后天争论,现在已经转化为工程术语。」

这项工作包括发现婴儿知道什么时候学到了什么,这是可以应用到机器学习上的经验。华盛顿西雅图艾伦人工智能研究所(AI2)首席执行官 Oren Etzioni 说,这需要很长时间。AI2 最近宣布斥资 1.25 亿美元来开发和测试 AI 的常识。Etzioni 说:「我们希望 AI 建立在人脑天生的表示结构上,但我们不了解大脑如何处理语言、推理过程和知识。」

不同的思维

随着时间的推移,人工智能(AI)已经从依赖编程规则和逻辑的算法转向机器学习,机器学习的算法仅包含少量规则并提取训练数据反复训练来学习。人的思维处在中间位置。

最后,Tenenbaum 说:「我们正在认真对待人工智能最古老的梦想之一:你可以制造一台像人类一样发展智能的机器,从一个婴儿开始,像孩子一样学习。」

在过去几年里,AI 实现了翻译、诊断癌症并在扑克比赛中击败人类。但是对于每一场胜利,都存在一些愚蠢的错误。图像识别算法现在可以比人类更准地区分狗的品种,但有时它会把吉娃娃误认为是蓝莓松饼。人工智能可以用超人的技巧来玩经典的雅达利游戏,比如太空侵略者,但是当你仅留下一个外星人时,AI 就会莫名其妙地挂掉。

机器学习应该对这些成功和失败负责。从广义上说,人工智能已经从依赖许多编程规则(也称为良好的老式 AI 或 GOFAI)的软件转移到通过反复训练学习的系统。由于计算机硬件、大数据和神经网络算法的发展,机器学习取得了飞跃。

这些网络其实是通过简单的计算单元来模拟大脑中的神经元,在提取训练数据时创建更强或更弱的连接。

凭借 Alpha,Google 的 DeepMind 将深度学习推向了顶峰。每次去掉规则后,Alpha 似乎都会有所提升。2016 年,AlphaGo 击败了的人类围棋冠军。2017 年,编程规则更少的 AlphaGo Zero 轻松击败 AlphaGo。几个月后,一个更简单的称为 AlphaZero 的系统击败了 AlphaGo Zero,并且还掌握了国际象棋。

1997 年,基于规则的经典 AI,即 IBM 的 Deep Blue 击败了国际象棋冠军 Garry Kasparov。但事实证明,真正的国际象棋精湛技术不能根据规则得到,而是通过经验推理出的最佳走位。所以通过反复学习的 AlphaZero 可以击败 Deep Blue,以及当今最好的国际象棋程序和每个人类冠军。

然而像 Alpha 这样的系统显然不能学习常识。要在 21x21 而不是 19x19 的棋盘上下围棋,AI 必须重新学习。在 20 世纪 90 年代后期,Marcus 训练了一个接收输入数字并将其输出的网络,这是可想象的最简单的任务。

但他只用偶数来训练它。当用奇数进行测试时,网络崩溃了。它不能将学习从一个领域应用到另一个领域,就像 Chloe 开始将她的乐高横向建造时那样。答案不在于基于规则的 GOFAI。

根据显式的规则,例如「如果腿数= 4,尾巴=真,尺寸>猫」,一个孩子识别不出一条狗。识别更加细致,三条腿的吉娃娃不会活过 3 岁。人类不是一张白板,也不是硬连线的。相反,有证据表明我们有倾向性,帮助我们学习知识并进行推理。我们并没有遗传到一个技能包,只是靠着本能去学习。

哈佛大学心理学家 Elizabeth Spelke 认为,我们至少有四种「核心知识」系统,使我们在理解对象、行为、数量和空间方面领先一步。例如,我们是天生的物理学家,能够快速理解物体及其相互作用。有研究表明,出生 3 天的婴儿会将部分隐藏的棒的两端看做同一实体,这表明我们的大脑可能倾向于感知一致性物体。

我们也是天生的心理学家。在 2017 年的一项科学研究中,Spelke 实验室的研究生 Shari Liu 发现,10 个月大的婴儿可以推断出,当一个动画角色爬上一个更大的山丘形成一个形状而非另一个时,角色必须更倾向前者。Marcus 证明了 7 个月大的婴儿可以学习规则。

当听到不同于以往的三词短句(「ga ti ga」)的(「wo fe fe」)时,它们表现出惊喜。后来的研究表明,新生儿表现出类似的行为。

婴儿的本能可以帮助我们学习常识,迄今为止人工智能算法对此难以捉摸。

Marcus 给出了他认为应该融入 AI 的 10 种人类本能的最低清单,其中包括因果关系,成本效益分析和类别 vs 实例(狗 vs 我的狗)的概念。去年 10 月在纽约大学,他在 AI 是否需要「更人性化」的辩论中宣布他的清单,纽约大学计算机科学家、Facebook 首席人工智能科学家 Yann LeCun 也参加了此次辩论。

为了证明本能的重要性,Marcus 展示了一张羊羔下山的的幻灯片。他说,「他们不会进行百万次试验性学习,如果它们犯错,这会是一个问题。「LeCun 不同意多数发展心理学家的观点,认为婴儿可能会在几天内学会这种能力,如果是的话,机器学习算法也可能会这样。

他的坚持来自经验。他从事图像识别工作,并于 20 世纪 80 年代开始提出手动编码算法识别图片中的特征不再是必需的。三十年后,他被证明是正确的。批评者问他:「你既然可以编写出来,为什么还要去学会它?」他的回答是:编写很难,如果你不完全明白事情是如何运作的,那么你设计的规则可能是错误的。

但 Marcus 指出,LeCun 自己将 10 个关键本能之一嵌入到他的图像识别算法中:平移不变性,无论物体出现在视野中的哪个位置都能被识别出来。

平移不变性是卷积神经网络的特性,或者说它是 LeCun 成名的理论。在过去的 5 年里,它们已经成为图像识别和其他 AI 应用的核心,并引发了当前深度学习的热潮。

LeCun 告诉 Science,平移不变也可以通过更好的通用学习机制习得。他说,「很多这些特性会因为了解这个世界如何运作而自发地出现。」加拿大多伦多大学深度学习的先驱 Geoffrey Hinton 对此表示赞同。

Hinton 说:「大多数相信本能知识的人有一种毫无根据的观点,即从头开始学习数十亿参数很困难。但我认为深度学习最近的进展表明它实际上非常容易。」

关于将人工智能置于纯学习与纯本能之间的争论将继续。但是这个问题掩盖了一个更实际的问题:如何设计和编码这种混合机器。尚不清楚如何将机器学习及数十亿个神经网络参数与规则和逻辑结合起来。

也不清楚如何确定最重要的本能并灵活编码它们。但是这并没有阻止一些研究员和公司去尝试。

位于澳大利亚悉尼的新南威尔士大学的机器人实验室装修整洁,看起来像客厅和厨房,冰箱里装满了 James Boag 的啤酒。计算机科学家 Michael Thielscher 解释说,该实验室是国内机器人的测试平台。他的团队试图赋予丰田护理机器人(HSR)两种人性化的能力。该机器人有一条机械臂和一个脸部屏幕。

首先,他们希望对 HSR 进行编程,将大问题分解为更小、更简单的问题,就像一个人将解决方案分成几个步骤一样。其次,他们想让机器人像人类一样能够理解信念和目标。如果一个人要求它拿起一个红色杯子,但是只看到一个蓝色杯子和一个红色碟子,HSR 会如何回应?

到目前为止,他们的软件显示出一些人性化的能力,包括选择蓝杯而不是红盘。但是更多的规则被编入系统,这远多于 Thielscher 想要的。他的团队不得不告诉他们的 AI,杯子通常比红色更重要。理想情况下,机器人将具有社交能力,可以快速学习人类的偏好。

其它的研究员正在努力为他们的人工智能注入像婴儿一样的天生的直觉。伦敦的 DeepMind 的计算机科学家开发了称为交互网络的东西。它们加入了一个对物理世界的假设:离散对象普遍存在并且具有不同的相互作用。

如同婴儿可以很快将世界分解为交互的实体,这些系统很容易学习对象的属性和关系。他们的结果表明,交互网络可以比一般的神经网络更准确地预测绳子下落和球在框中弹跳的行为。

机器学习的胜利,2017 年 AlphaGo 击败围棋冠军柯杰。

Vicarious 是位于加利福尼亚州旧金山的一家机器人软件公司,该公司结合所谓的模式网络(schema network)将人工智能推向巅峰。这些系统也假设对象和交互的存在,但也试图推断连接它们的因果关系。通过大量的学习,该公司的软件可以像人类一样根据预期的结果制定计划。(我不想让我的鼻子痒,抓它可能会有帮助。)

研究人员将他们的方法与最先进的神经网络在 Atari 游戏 Breakout 中进行了比较,玩家通过一块板来转移球并敲出砖块。因为模式网络可以了解因果关系(例如,无论速度如何,球碰到砖头都会敲掉砖块这一事实)当游戏发生变化时,也不需要额外的训练。

你也可以移动目标砖块或让玩家拨动三个球,但是模式网络仍然在游戏中占上风。其它网络挂掉了。

除了我们天生的能力之外,人类也从大多数 AI 没有的东西中受益:身体。为了帮助软件认知世界,Vicarious 将软件嵌入到智能体中,因此它可以探索虚拟环境,就像婴儿可能会通过倾倒一组积木块来学习重力一样。今年 2 月,Vicarious 提出了一个系统,通过一个微小的虚拟角色穿越地形来寻找 2D 场景中的有界区域。

正如它探索的那样,该系统学习了遏制的概念,它比标准的被动学习场景的图像识别卷积网络能够更快地理解新的场景。概念(普适的知识)对常识至关重要。

「在机器人学中,机器人能够推断新情况是非常重要的,」Vicarious 的联合创始人 Dileep George 说。今年晚些时候,该公司将在仓库和工厂进行试点测试,帮助机器人在打包运输前提取、组装并标注物体。

最具挑战性的任务之一是如何灵活编码本能,以便 AI 可以应对一个并不总是遵循规则的混乱世界。例如,自动驾驶汽车不能指望其他司机遵守交通法规。为了应对这种不可预测性,加州斯坦福大学的心理学家和计算机科学家 Noah Goodman 帮助开发了概率编程语言(PPL)。

PPL 将计算机代码的严密结构与概率论结合起来,类似人类逻辑的方式,但同时也考虑到了不确定性:

如果草地潮湿,可能会下雨,但也许有人打开了洒水装置。重要的是,PPL 可以与深度学习网络相结合,以融入拓展学习。

在 Uber 工作的时候,Goodman 和其他人发明了这种称为 Pyro 的「深度 PPL」。该出行公司正在探索 Pyro 的用途,例如调派司机以及在道路施工和比赛日期间自适应规划路线。Goodman 说,PPL 不仅可以推理物理状态和物流,还可以推断人们交流及应对棘手问题的表达形式,如夸张、讽刺。

Chloe 可能在十几岁之前都不会讽刺,但她对语言的天生诀窍已经很了解了。在 Marcus 的公寓里,她拿出一对卡住的乐高积木。「爸爸,你能帮我解开这个吗?」她的父亲没有帮她改正创造的义务。词汇和想法就像乐高积木,各部件很容易混搭,并且在世界范围受到热切的尝试。

在 Chloe 厌倦在墙上搭积木之后,一个年龄稍长、经验稍稍丰富的智能系统有机会尝试它:她 5 岁的哥哥 Alexander,很快搭建了一个更高大的乐高建筑。

「他做的很好,」Marcus 如此说。「他没有进行一千万次乐高粘连试验来评估建筑的完整性,他正在采取他所知道的有关物理学的知识,并做出一些推论。」

Marcus 显然很骄傲,不仅对他的子女的能力,而且对他们论证了关于我们如何了解这个世界的理论,以及 AI 如何学习。搭完乐高后,Chloe 和 Alexander 跳进他们父亲的怀抱。当他转起来时,他们高兴地尖叫起来,这为他们提供了另一个机会来调整他们对物理学的直观感官,以及乐趣。

原文链接:http://www.sciencemag.org/news/2018/05/how-researchers-are-teaching-ai-learn-child

本文为机器之心编译,转载请联系本公众号获得授权。

原文发布于微信公众号 - 机器之心(almosthuman2014)

原文发表时间:2018-06-04

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器学习算法与Python学习

最强数据集50个最佳机器学习公共数据,可以帮你验证idea!

外国自媒体mlmemoirs根据github、福布斯、CMU官网等信息,整理了一张50个最佳机器学习公共数据集的榜单,量子位为大家分享一下~

16350
来自专栏Vamei实验室

统计Go, Go, Go

结束了概率论,我们数据之旅的下一站是统计。这一篇,是统计的一个小介绍。 统计是研究数据的学科。它包括描述数据,推测群体信息,判断假设的真伪。统计是一门实用学科。...

19190
来自专栏AI研习社

深度学习真的可以零基础入门吗?

我们先来谈谈自学深度学习最大的问题。 现在搞深度学习的,十之八九并不是“科班出身”。 这就导致:如果你想要跨行成为一名深度学习工程师,从头到尾的一切,都基本靠自...

36250
来自专栏机器学习算法与Python学习

人工智能十大未来之星

IEEE Intelligent Systems通过其每两年一次的“AI‘s 10 to Watch”专区,介绍和推荐年轻和有抱负的人工智能科学家。2018年这...

15310
来自专栏新智元

斯坦福医疗ImageNet发布,如何评价PB级医疗影像数据集?

【新智元导读】斯坦福大学医学院与 Langlotzlab 合作创建的一个 PB 级的大型医疗影像数据集 Medical ImageNet 最近发布,从官方网页的...

49370
来自专栏新智元

【AI万圣节】MIT发布首个AI鬼故事作家,RNN和在线学习算法生成恐怖小说

【新智元导读】继去年“机器学习生成恐怖图像”后,MIT研究人员在今年的万圣节推出了“AI写恐怖故事”的项目,利用RNN和在线学习算法,结合Reddit上人类写的...

34470
来自专栏人工智能头条

【CSDN AI 周刊】第11期 | 周志华提出深度森林 引发持续热议

16630
来自专栏大数据文摘

11张图带你走过数据可视化的前生今世

262150
来自专栏罗超频道

忘了黄金时代,理性看待大数据预测

在世界杯预测时准确率超高的百度大数据预测在稳步推进时遇到了一个小障碍,尚处于内测的票房预测对《黄金时代》的预测与实际结果出现了偏差,被媒体长篇报道引发业内高度...

35940
来自专栏大数据文摘

用机器学习的经验指导人生:如何实现学习效率最大化

12730

扫码关注云+社区

领取腾讯云代金券