谷歌大脑工程师给2018学术顶会划重点:对抗性学习+强化学习


新智元编译

作者:Alex Irpan

翻译:肖琴

【新智元导读】本文作者Alex Irpan是Google Brain机器人团队的软件工程师,他在不到一个月的时间里参加了两个学术会议:ICLR 2018和ICRA 2018,前者是一个深度学习会议,后者是机器人领域的会议。作者将这两个会议进行了比较。

ICLR 2018

从研究的角度来看,今年ICLR的一大重点是对抗性学习

深度学习领域中最受欢迎的是生成对抗网络。不过,我在这里关注的更广,包括对抗样本和智能体竞争的环境。实际上,任何形式的极小极大优化问题都可以算作对抗性学习。

我不知道GAN是否真的很受欢迎,或者我的记忆带有选择性的偏见,因为我对这些方法很感兴趣。GAN给人的感觉很强大。评估GAN的一种方法是,你通过使用学习隐式成本而不是人为定义的成本来学习生成器。这使你能够适应生成器的能力,并可以定义手动解释可能很麻烦的成本。

当然,这会让你的问题更加复杂。但是如果你有足够强的优化和建模能力,那么隐式学习的成本将比其他方法能提供更清晰的图像。使用学习的组件替换一部分系统的一个好处是,优化和建模能力的进步适用于问题的更多方面。你正在提高学习成本函数的能力和最小化这些学习成本的能力。

从抽象点的观点来看,这涉及到具有表现力的、可优化的函数家族的能力,例如神经网络。 Minimax优化不是一个新的想法。它已经存在很久了。新的东西是,深度学习可以让你在高维数据上建模和学习复杂的成本函数。对我来说,GAN的有趣之处不是图像生成,而是它们在复杂的数据(比如图像)上的概念证明。这个框架并不要求使用图像数据。

学习过程中还有其他部分可以用学习方法来替代,而不是用人为定义的方法,深度学习就是这样一种方法。这样做有意义吗?也许有。问题是,你用深度学习方法越多,就越难让每件事情都可以学习(learnable)。

最近Quanta Magazine上有一篇文章,Judea Pearl在上面表达了他的失望:深度学习只是学习相关性和曲线拟合,而这并不涵盖所有的智能。我同意Judea Pearl的观点,但作为深度学习的拥护者,我认为如果你把一个足够大的神经网络足够好地进行优化,你可能会学到一些看起来很像因果推理的东西,或者其他可以算作智能的东西。但这就接近哲学的领域了,所以我就讲到这里。

从与会者的角度来看,我喜欢这次会议有很多海报展示。这是我第一次参加ICLR。我之前参加过的ML会议是NIPS,NIPS给我的感觉是非常大。在NIPS上仔细阅读每一张海报感觉不太可行。在ICLR阅读完所有海报是可能的,尽管你不一定真想这样做。

我也很欣赏ICLR上企业招聘不像NIPS那样荒谬。在NIPS,有些公司会送奇怪的指尖陀螺和弹簧玩具.......在ICLR,我得到的最奇怪的东西是一双袜子,虽然奇怪,但也不是特别奇怪。

会后我跟进阅读的论文:

Intrinsic Motivation and Automatic Curricula via Asymmetric Self-Play

Learning Robust Rewards with Adverserial Inverse Reinforcement Learning

Policy Optimization by Genetic Distillation

Measuring the Intrinsic Dimension of Objective Landscapes

Eigenoption Discovery Through the Deep Successor Representation

Self-Ensembling for Visual Domain Adaptation

TD or not TD: Analyzing the Role of Temporal Differencing in Deep Reinforcement Learning

Online Learning Rate Adaptation with Hypergradient Descent

DORA The Explorer: Directed Outreaching Reinforcement Action-Selection

Learning to Multi-Task by Active Sampling

ICRA 2018

ICRA 2018是我参加的第一个机器人会议。我不知道该期待什么。我一开始做的是ML研究,后来转去研究机器人,所以我的兴趣更接近于学习控制,而不是制造新的机器人。我的理想设定是,我可以将真实世界的硬件视为抽象的。

再加上我对控制理论的贫乏理解,我对会议上的许多话题都不熟悉。尽管如此,还是有很多学习领域的论文,很高兴我去参加了这个会。

在我确实了解的研究中,我很惊讶有这么多的强化学习论文。看到它们中几乎没有人使用纯粹的无模型的RL,有点有趣。对于ICRA,如果你的论文提出的模型在真实世界的机器人上运行过,那么你被接受的可能性会大得多。这就迫使作者关注数据效率,因此对只做无模型的RL有极大的偏见。当我四处听演讲时,我不断地听到“我们将无模型强化学习与X结合在一起”,其中X是基于模型的RL,或者从人类的演示中学习,或者从运动规划中学习,或者从任何可以帮助探索问题的东西中学习。

从更广泛的层面看,这次会议是有实用性的。它虽然是一个研究会议,很多内容仍然是很推测性的,但它也觉得人们可以接受狭窄的、有针对性的解决方案。我认为这是不得不使用真正的硬件造成的另一个后果。如果需要实时运行模型,就不能忽略推理时间。如果需要从真正的机器人那里收集数据,就不能忽略数据效率。真正的硬件并不关心你的问题是什么。

(1)网络必须能够运行。 (2)无论您做何努力,赋于其何种优先级,都无法提高光的速度。 ——RFC 1925

这让和我交谈过的许多ML研究人员感到惊讶,但这个机器人技术的会议并没有像NIPS / ICLR / ICML的人那样完全接受ML,部分原因是ML并不总是有效的。机器学习是一个解决方案,但它不能保证有意义。我的印象是,ICRA中只有少数人积极地希望ML失败。只要ML能证明有用,其他人都很乐意使用ML。在某些领域,它已经证明了自己。我看到的每一篇跟感知相关的论文都以这样或那样的方式使用CNN。但是很少有人用深度学习来进行控制,因为控制是有很多不确定因素的。

像ICLR一样, ICRA上也有很多公司举行招聘或摆设摊位。跟ICLR不同的是,这里的摊位显得更有趣。大多数公司都带了机器人来演示,这当然比听招聘演说更有趣。

在去年的NIPS上,我注意到ML公司的展位让我想起了Berkeley的职业招聘会。每一家科技公司都想招到Berkeley的应届毕业生。这就像一场军备竞赛,看谁能提供最好的东西和最好的免费食物。感觉他们的目标是尽可能地让自己看起来是最酷的公司,而不告诉你他们真正想雇佣你来做什么。机器人技术还没有走得很远。它在增长,但没有太多的宣传。

我参加了几个workshop,在那里人们谈论他们如何在现实世界中使用机器人,都很有趣。研究性会议倾向于集中讨论研究和网络,这使得人们很容易忘记研究可以有明确的、直接的经济价值。有一个农业机器人相关的,谈到使用计算机视觉来检测杂草以及喷洒除草剂,这听起来是好事。使用更少除草剂,杀死更少作物,同时减缓除草剂抗性的发生。

Rodney Brooks也有一个类似的精彩演讲,他以Roomba为例,谈到了将机器人技术转化为消费产品所需的东西。他说,在设计Roomba时,他们先定了一个价格,然后将所有的功能控制在这个价格里面。结果是,几百美元的价格让你在传感器和硬件的选择上只有很小的余地,这就使得在设备上进行推断的能力有严格的限制。

组织方面,做得很好。会议中心紧邻印刷店,所以在注册时,组织者说,如果你在特定期限内用电子邮件发送PDF文件,他们会处理剩下的所有流程。你所要做的就是在网上为你的海报付钱,然后在会议上拿出来。所有的演示都是在演示室中进行的,每个演示室都配有白板和一个架子,你可以在上面放置笔记本电脑来播放视频。

会后我跟进阅读的论文:

Applying Asynchronous Deep Classification Network and Gaming Reinforcement Learning-Based Motion Planner to a Mobile Robot

OptLayer - Practical Constrained Optimization for Deep Reinforcement Learning in the Real World

Synthetically Trained Neural Networks for Learning Human-Readable Plans from Real-World Demonstrations

Semantic Robot Programming for Goal-Directed Manipulation in Cluttered Scenes

Interactive Perception: Leveraging Action in Perception and Perception in Action


原文发布于微信公众号 - 新智元(AI_era)

原文发表时间:2018-06-13

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏腾讯高校合作

【犀牛鸟论道】社会传播学的若干课题与实践

社会传播学的若干课题与实践 贺鹏、易玲玲、高瀚、陈川 腾讯微信数据中心社会传播组 [摘要]俗话说“酒香不怕巷子深”,表面上说的是酒香引人,实际上是指好酒在街坊邻...

3175
来自专栏机器之心

观点 | Yoav与LeCun深度学习之争后续:谷歌VP Fernando Pereira谈NLP研究「三幕剧」

选自EarningMyTurns 机器之心编译 参与:机器之心编辑部 近日,著名学者 Yoav Goldberg 发布的一篇批评蒙特利尔大学新论文《Advers...

1986
来自专栏AI科技评论

【深度】Nature:我们能打开人工智能的“黑箱”吗?

编者按:人工智能无处不在。但是在科学家信任人工智能之前,他们首先应该了解这些人工智能机器是如何运作的,这也就是文中所提到的“黑箱”问题。在控制论中,通常把所不知...

2946
来自专栏AI科技评论

Yann LeCun连发三弹:人人都懂的深度学习基本原理(附视频)

一名 AI 专家值多少钱? “基于我个人经验,一名计算机领域的 AI 专家对于企业的价值,至少为 500-1000 万美元。为了争夺这些少数的人才,正在开展竞标...

3229
来自专栏新智元

【独家】朱凯华:智能搜索和对话式OS最新技术全面解读(65PPT)

【新智元导读】百度度秘事业部首席技术官朱凯华日前在上海计算机学会做了题为《AI赋能的搜索和对话交互》的报告,主要介绍了现在的百度搜索及度秘“DuerOS”系统。...

4526
来自专栏大数据文摘

AI = 神经网络?这8个技术就不是!

792
来自专栏新智元

【ICCV 13大不可错过的有趣项目】实时任意风格迁移、手机照片背景模糊……

来源:techcrunch 作者:Devin Coldewey 编译:马文 【新智元导读】计算机视觉领域顶会之一的 ICCV 结束不久,图像质量提升、从头创建...

3437
来自专栏大数据文摘

吴恩达的课上完了?如何科学开启你的深度学习论文阅读生涯

当你阅读了深度学习相关的书籍或者上过精彩的在线课程后,你将如何深入学习?如何才能够“自力更生”,独立地去了解相关领域中最新的研究进展?本文作者Nityesh A...

641
来自专栏吉浦迅科技

(图解)人工智能的黄金年代:机器学习

Lady我在整理一些关于Deep learning方面的学习资料,看到好文章总是忍不住想跟各位分享。这次将系统地介绍深度学习的前世今生,文章很有趣,但也很长,将...

37215
来自专栏AI科技评论

腾讯AI Lab 8篇论文入选,从0到1解读语音交互能力 | InterSpeech 2018

AI科技评论按:Interspeech 会议是全球最大的综合性语音信号处理领域的科技盛会,首次参加的腾讯 AI Lab共有8篇论文入选,居国内企业前列。这些论文...

511

扫码关注云+社区