Yann Lecun CoLR演讲全解读:机器该如何像动物和人类一样有效学习?

AI科技评论按:本文为Yann Lecun在CoRL 2017大会上做的演讲的概述,AI科技评论作为受邀媒体参加了CoRL大会,所有资料来自于官方公开资源整理。

Lecun为Facebook AI研究院院长,他同时也是纽约大学的终身教授。他因著名的卷积神经网络(CNN)相关的工作而被人称为CNN之父。在演讲中,Lecun回顾了其早期利用神经网络用于机器人的研究做了一个基本的介绍,在当时Lecun的论文被RSS拒稿,然而今天CNN却在人工智能领域大放异彩,技术的发展往往是螺旋式且兼具跳跃性,实在难以预料。

接着Lecun重点讲解了他的成名作——卷积神经网络(CNN),并分析了阻碍人工智能继续前进的因素。在他看来,现在的人工智能系统距离真正的人工智能相去甚远,要想让机器像人或动物一样有效学习,需要更好地就无监督学习上继续研究,并讨论了利用对抗网络进行无监督学习的重要性。

Lecun的演讲标题是:《机器该如何像动物和人类一样有效学习》?

Lecun先从今年9月的CCN(Cognitive Computational Neuroscience,认知计算神经科学)大会上,MIT的认知计算专家Josh Tennenbaum的一句话说起:我们现在看到的所有AI系统都不是真正的AI。这是因为,大脑的学习效率比我们目前所有的机器学习方法效率都要高:监督学习需要大量的范例,增强学习需要上百万次试错,这也是我们的机器人无法像猫或老鼠一样灵活、以及无法造出拥有常识的对话系统的原因。

我们可以通过强化学习训练机器识别如桌子、凳子、够、汽车、飞机等实例,只要我们有足够的计算能力和训练样本,机器业能识别出之前未见过的东西。

Lecun还比较了传统的模式识别方法、改进的模式识别方法、深度学习的不同。

从2013年到2017年,从VGG到DenseNet(这也是Facebook用于图像识别的网络结构),深度卷积神经网络变得越来越深,识别效果也变得越来越好。

而在Lecun将机器学习应用于机器人的研究在2003年,当时DARPA找到Lecun,通过模仿学习进行避障的研究。2005年,Lecun将论文投给了第一届RSS(机器人领域的顶级学术会议之一),但很不幸的被拒了,随后Lecun将论文转投当年的NIPS,论文被收录发表。而这一研究的阶段性成果也打动了DARPA,并催生了之后的DARPA LAGR项目(这么说来,Lecun在机器人方面的研究天赋是不是被RSS耽误了呢)。

DARPA LAGR:一个将机器学习应用于地面机器人、基于感知的自主导航项目。

Lecun在机器人上使用了一个叫ComNet的网络,在当时算是非常前卫的做法。

当时的识别效果,在地图上设定终点后可自主进行路线规划。

然而,每秒只能进行一帧图像的识别,无法有效躲避突然出现的行人。

若干年后的另一个研究,将视频中的场景识别为不同种类,如道路、汽车、建筑等。当时还缺乏对应的数据集,需要进行大量的标注。由于缺乏数据,这并不是卷积神经网络的强项,只是相比其他方法来说算是一个不错的选择而已(直到2012年ImageNet上的突破)。

2012年在FPGA上跑到20帧,这也推动了之后如Mobileye和NVIDIA在无人驾驶上的研究。

其他的应用,如将Mask R-CNN用于实例分割;

Mask R-CNN在COCO数据集上的图像分割结果。

以及姿态预估的结果;

3D语义识别;

用于翻译;

视觉推理中的推断和执行(虽然Lecun怼过Jurgen,但不得不说LSTM还是很有用的嘛);

诸多的用促成了FAIR的诸多开源项目(Lecun说,这里大多数项目自己没有参与,他只是在说别人的研究工作);

展望未来,Lecun认为阻碍人工智能继续前进的因素在于目前我们打开AI的方式不正确,像人或动物都无需大量的标识数据或者大量试错;

这当中的差别在于“常识”,就是通过想象来填补空白的能力,这也是某种形式的非监督学习。

大多数人或动物的学习方式都是非监督学习。

人类具有通过观察形成常识的能力,例如“Josh拿起包离开了房间”,我们人类很容易理解相应的行为,但很难教机器去理解这一系列动作;

从认知科学的角度,人类在婴儿时期学习到各种概念的时间表;

为什么下需要进一步发展非监督学习?这是由于用于训练一个大的学习机器的必要样本量取决于我们要求它能预测多少信息,你对机器要求越多,所需要的数据也越多。在人类大脑中有10^14个神经元触突,而人的一生大概有10^9秒,这意味着在人类大脑这个系统中参数远远大于数据量,而机器想要赶上人类,必须模仿人类的非监督学习方式。

三种不同学习方式的比较。

然后Lecun展示了他著名的“蛋糕”理论。“真正的”强化学习好比蛋糕上的樱桃,监督学习好比蛋糕上的糖衣,而蛋糕本身是非监督学习(预测学习)。这里Lecun也表示,这一比喻对做强化学习的兄弟可能不太友好——“Because the cherry is not optional”。

在Lecun看来,真正的强化学习是很难在现实世界中应用的,一不小心出错就会酿成大祸,还是玩玩游戏就好了。

比如说,打星际。

经典的强化学习框架Dyna:“现在大脑中推演然后再行动”;

以及经典的基于模型的最优控制理论。

Lecun进行了概况:未来的AI革命必然是非监督学习。

人工智能系统的两个重要组成部分:一个会学习的Agent和一个不变的目标函数。Agent从世界中感知,做实际决策,再感知,再做决策………通过这样一个不断循环迭代的过程,达到长期的期望损失最小化的目标。

预测+规划=推理,而通过最小化预测损耗,可以使Agent进一步优化决策过程。

对应的迭代式的学习方式和优化如上图所示。这种非监督学习方式也是人类诸如学开车等技能获得的重要方式,因为人们会推演行为带来的后果,并不断调整达到最优。

基于卷积网络的PhysNet,可预测物体的掉落轨迹;

Lecun的学生不久前做的另一个前向模型,可模拟飞船在星际旅行中的运动规划。

关于问答与对话系统中的预测模型。Lecun称要预测未来,你首先要记住过去,因而需要将记忆引入神经网络中,即所谓的记忆网络(Memory Network)。

以及关于记忆网络的若干模型。

端到端的记忆网络。你之前告诉机器的东西会被储存起来,并在之后询问提及时被激活,这一方式可以用于构建对话系统,而且对话系统和机器人与世界进行交互的过程有着诸多相似之处;

如果要设计一个好的对话系统,需要对对话有良好的预测能力。

在这方面的一些研究。

然后Lecun提到了在非确定条件下的预测方式(非监督学习)。

简单来说就是学习一个能量函数,使得其在数据流形状上具有较低的值,而在其他地方具有较高的值。

即在希望的输出上压低能量值,在其他地方提高能量值。但是我们如何确定什么地方应该提高呢?这当有八、九种方法,比如蒙特卡洛方法等。

而对抗网络也是新的处理这一问题的有效手段。

到具体的问题,最困难之处在于基于不确定性的预测。例如放开一支笔,让系统回答笔半秒钟后会导向何方,系统感知到的输入X只是世界里真实分布的一个采样,假设其由某个隐变量Z而决定,如果Z不同,预测的结果Y也会不一样,即便是我们人类也很难预测Y在空间中的带状分布。

对抗学习:由生成器来决定让哪些点的能量值变高或者变低;

基于能量的生成对抗网络在ImageNet上训练的例子。

我们同样还可以将生成对抗网络应用在视频预测上。

我们是否可以训练机器像我们大脑一样,对未来进行预测呢?通过生成对抗网络,我们已经取得了一些进展,但这个问题仍然远远未能解决。

用生成对抗网络预测未来5帧的例子总体来说不错,但如果我们预测未来50帧的状态就要大打折扣了。

Lecun最近的研究:视频预测的语义分割

该研究在如自动驾驶等领域将会有不错的应用,例如预测0.5秒后行人或其他车辆的状态;

Lecun最新的研究:错误编码网络(将在明天发布到Arxiv上,AI科技评论也将进一步跟进。)

在一个测试集上的例子:用机器手臂戳物体并预测其位置。

Lecun称,对未来的预测是AI系统的一个重要环节,而这一问题尚未得到解决。生成对抗网络为解决这一问题提供了一个思路,同时他也期待有其他更好的方法来解决这一问题。

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2017-11-16

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI科技评论

微软亚洲研究院刘铁岩博士:迎接深度学习的「大」挑战(文末赠书)

AI 科技评论按:本文根据刘铁岩博士在中国人工智能学会 AIDL 第二期人工智能前沿讲习班*机器学习前沿所作报告《迎接深度学习的「大」挑战》编辑整理而来,发文前...

2874
来自专栏AI科技大本营的专栏

周末漫谈 | 都说想转型机器学习,到你真的有机会吗?机器学习下一个创新点到底在哪里?

本期话题 这个周六,让我们来聊聊当前火热的机器学习,它未来的机会在哪里呢? 机器学习、计算机视觉下一步的创新点在哪里? 随着硬件的迭代,神经网络的隐藏层可以...

3609
来自专栏语言、知识与人工智能

IJCAI 2018 | 腾讯知文团队3篇入选论文解读

在近日揭晓2018年收录论文名单中,腾讯知文团队有3篇一作长文被录取,我们将对文章进行简要解读,欢迎交流讨论。

8.6K4
来自专栏人称T客

人工智能、机器学习、深度学习的区别在哪?|编译

编者:T 客汇 杨丽 张苏月 关键词:人工智能,机器学习,深度学习 网址:www.tikehui.com 有人说,人工智能(Artificial Intell...

3335
来自专栏IT派

用人工智能打王者荣耀,应该选择什么样的英雄?

如果让人工智能来打王者荣耀,应该选择什么样的英雄?近日,匹茨堡大学和腾讯 AI Lab 提交的论文给了我们答案:狄仁杰。在该研究中,人们尝试了 AlphaGo ...

1362
来自专栏AI科技大本营的专栏

深度学习到底有没有缺陷?这里列满了它做不到的事情

本文源自一次讨论深度学习缺陷的推文风暴,斯坦福大学的Bharath Ramsundar,在用深度学习进行药物研究的过程中发现,深度学习做不到事情其实有很多,比如...

7667
来自专栏CreateAMind

浅析 Hinton 最近提出的 Capsule 计划

最近一次更新 17-09-22 15:00 (按中国时间计)。修复了一些笔误,加入了更多关于无监督学习的介绍内容,使思路更完整;以及一两句关于 Capsule ...

952
来自专栏AI科技评论

深度 | 能看图回答问题的AI离我们还有多远?Facebook向视觉对话进发

AI 科技评论按:Facebook AI 研究院(FAIR)日前撰写了一篇长文章,介绍了自己在基于图像的自然语言对话系统方面的研究方向以及现有的研究成果。 图像...

3216
来自专栏AI科技评论

专栏|深度学习在人脸识别中的应用 ——优图祖母模型的“进化”

说到人工智能(Artificial Intelligence, AI)人们总是很容易和全知、全能这样的词联系起来。大量关于AI的科幻电影更给人工智能蒙上一层神秘...

4674
来自专栏AI科技大本营的专栏

深度学习的下一个热点——GANs将改变世界

本文作者 Nikolai Yakovenko 毕业于哥伦比亚大学,目前是 Google 的工程师,致力于构建人工智能系统,专注于语言处理、文本分类、解析与生成。...

3548

扫码关注云+社区

领取腾讯云代金券