约翰霍普金斯大学刘晨曦:渐进式神经网络结构搜索

近年来,神经网络已经成为了计算机视觉中主要的机器学习解决方案。然而神经网络结构的设计仍然需要极强的专业知识,在一定程度上妨碍了神经网络的普及。

近日,在雷锋网 AI 研习社公开课上,约翰霍普金斯大学在读博士刘晨曦分享了在神经网络结构搜索上的最新研究,并讲解了如何通过由简至繁的渐进式搜索得到在 ImageNet 图像分类上最高的识别精度。公开课回放视频网址:

http://www.mooc.ai/open/course/550?=aitechtalkliuchenxi

刘晨曦:约翰霍普金斯大学在读博士,导师是 Alan Yuille 教授,主要研究方向为计算机视觉,自然语言处理等。曾就读于加州大学洛杉矶分校及清华大学。其研究工作曾在 CVPR,ICCV,ECCV 等发表。

分享主题:渐进式神经网络结构搜索

分享大纲:

  • AutoML 和神经网络结构搜索的背景介绍
  • 网络结构搜索空间
  • 渐进式神经网络结构搜索算法
  • 图像分类的实验结果

雷锋网 AI 研习社将其分享内容整理如下:

今天我要跟大家分享是渐进式神经网络结构搜索(Progressive Neural Architecture Search)。这项工作是我在 Google(美国)实习的时候做的项目,并在不久前的 ECCV 2018 上做口头报告。

AutoML 和神经网络结构搜索的背景介绍

首先介绍一下 AutoML 和神经网络结构搜索的背景。

这篇文章主要涉及的领域是 AutoML,这是一个新兴领域,也是 Google 非常重视的一个具体方向。它的目标很简单但也很重要,就是能够在 Machine Learning solution 的整个设计过程中,减少人的参与。当 AutoML 的实现程度够高,能实现的具体场合是:人只需在早上起来的时候按一个回车键,整个设计过程就能实现高度的自动模式,晚上回来的时候就能够完成。

当然理想很丰满,现实实现难度却比较大,为什么?

现在的 Machine Learning solution 既有参数也有超参数,而现在最受欢迎的机器学习框架是神经网络,这里主要讨论它的优化是否自动化了。目前,参数的调整已经非常自动化了,可以直接用 Backpropagation 函数实现最优的参数调整,而难以实现较大程度自动化的,是超参数的调整。

那超参数都在哪里?

一提到超参数,我们会更多地想到 learning rate 相关的数字,比如说整个 training 有多长时间,绝对数值应该选多少等。但是对于神经网络来说,很多超参数都在它的结构里面。下图就是一个网络结构:

很多神经网络结构需要很多的 expert experience 和 knowledge,但这样得出的结果并不是最优的,这也是我们尝试渐进式神经网络结构搜索最主要的 motivation。

近几年来,大家逐渐开始关注一个问题:能不能不要过于依赖于 expert experience 和 knowledge,而通过自动的方式来得到一个非常好的神经网络结构?

神经网络领域发展得很快,但是现在神经网络结构搜索相关的文章中主要使用的方法是:进化的算法(EA)和强化学习的算法(RL)。

【关于这两种算法的讲解,请回看视频 00:07:00 处】

http://http://www.mooc.ai/open/course/550?=aitechtalkliuchenxi

在我们之前,神经网络结构搜索的相关工作已经做得比较好了,但在我们研究这一领域的时候,发现的问题是,之前的工作都非常依赖计算资源。比如在 Google Brain 2017 年的一篇文章里,为了做神经网络结构搜索用了 800 块 K40 的 GPU,然后训练了 28 天。在今年的一篇文章里,虽然有了很大提升,但还是用了 500 块 P100,并训练了 5 天。

所以我们这项工作的主要目标是尝试把神经网络结构搜索的速度和效率提高,具体的做法是:提出一个创新的算法。在我们描述这个算法前,我们需要了解网络结构搜索空间(Architecture Search Space)。

网络结构搜索空间

网络结构搜索空间大概的结构是:定义整个 Network 由一些 Cell 组成,一个 Cell 进一步由一些 Block 组成。

从 Cell 到 Network 的过程,如右图所示,就是有了一个 Cell structure 后,组建整个 Network,整个过程借鉴了 ResNet 的设计。

【关于从 Cell 到 Network 的过程更具体的讲解,请回看视频 00:12:40 处】

http://www.mooc.ai/open/course/550?=aitechtalkliuchenxi

从 Block 到 Cell 的过程,是指一个 Cell 由 5 个 Block 组成,整个 Cell 的 output 是 5 个 Block 的 output 的 concatenation(连接)。如右图,H 代表 Cell 的 output,H1 到 H5 代表了五个 Block 的 output。

而一个 Block 大概是下图右边的这样一个结构,这是整个网络最小的形成段,Input1 通过 Operator1 transform 一下,Input2 通过 Operator2 transform 一下,二者通过一定方法 Combine 形成一个 Block。

【更多关于 Block 的形成过程的讲解,请回看视频 00:14:34 处】

http://www.mooc.ai/open/course/550?=aitechtalkliuchenxi

总的来说,网络结构搜索空间中一个 Cell 结构如右图所示,每个「+」的位置都代表 Block 结束的地方,每个 Block 结束都有一个 element-wise addition 的操作,H(c-1)是前一个 Cell 的 output,H(c-2)是前两个 Cell 的 output。

左边是我进行的对应的计算,这样的结构就已经有 10 的 14 次方的 combinations,而神经网络结构搜索的目标就是从这 10 的 14 次方个结果中选出最佳的那个,这显然是一个非常具有挑战性的 Task,这就需要一个好的算法来进行。

渐进式神经网络结构搜索算法

我们主要的 Idea 其实很简单:从简单到复杂的 Curriculum Learning。我们注意到之前的方法都直接在 10 的 14 次方大小的搜索空间进行取样或者训练,这样的搜索空间非常大,很难进行有效的信息积累。

而我们的 Idea 是,不直接在 10 的 14 次方大小的搜索空间中工作,而是从简到繁慢慢进入最大的搜索空间:

首先,训练所有的 1-block cells,当然,我们的目标是搜索 5-block cells,但我们一开始先假装不知道我们的目标。这个网络结构的一个好处是它的结构比较简单,另一个好处是它的绝对数量只有 256 个不同的可能。

然后,去测它的算法的话,它们的分值会比较低,这是因为它们有更少的 Block。但是,对于它们之间相对的性能,已经有信号暗示哪些 Cell 是 promising 的,哪些不 promising。

最后,我们直接从 256 个可能里面挑选 K 个 promising 最高的 Cell,让它变成 2-block cells,再变到 3-block cells,依次这样发展。

【关于这种 Idea 更详细的讲解,请回看视频 00:19:50 处】

http://www.mooc.ai/open/course/550?=aitechtalkliuchenxi

然而这种 Idea 是难以预测的。基于此,我们的解决方案是引入了一个「cheap」surrogate model,它读入一个结构,比如下图中的 (0, 2, 0, 6),将其直接放入到 predictor 中去预测 final performance,这样的一个 predictor 是很轻便的,我们的想法就是用这个 surrogate model 完全代替整个训练过程。

【关于 surrogate model 更详细的讲解,请回看视频 00:22:28 处】

http://www.mooc.ai/open/course/550?=aitechtalkliuchenxi

最终,我们既尝试了 MLP-ensemble 也尝试了 RNN-ensemble 的 predictor。RNN-ensemble 的方法比较直观,每次当遇到结构的大小不一样长的时候,只要将 RNN unroll 不同的步数就可以了。MLP-ensemble 则通过 mean pooling 的方式来处理可变大小。

接下来我们用一个具体例子来看这种渐进式神经网络结构搜索方法。

【关于渐进式神经网络结构搜索方法的案例讲解,请回看视频 00:26:39 处】

http://www.mooc.ai/open/course/550?=aitechtalkliuchenxi

最后介绍一下我们的实验结果。

图像分类的实验结果

在搜索过程中,我们做了这样一个实验,在 CIFAR-10 架构上进行了渐进式神经网络结构搜索,K 取值 256,而每个模型的 N 和 F 分别取值 2、24,相对较小,并对模型进行了 20 次迭代训练,以更快、更准确地判断 Network 的好坏。这个过程中的一个很重要的问题是,我们的搜索是不是更加有效率——这也是我们整篇论文最主要的目标。

答案肯定是,是的。在下图中,我把我们的渐进式神经网络结构搜索跟 Random Rearch 和 NAS 进行了比较:

【关于对三种搜索方法的比较的具体讲解,请回看视频 00:31:45 处】

http://www.mooc.ai/open/course/550?=aitechtalkliuchenxi

我们搜索的结构有 PNASNet-1、 2、3、4、5,它们的具体的样子如下图:

其中 PNASNet-5 是我们最终搜索出来的结果。而我们找到这样一个结构之后,仅仅确保它在过程中的表现好还不够,我们还要在搜索完成后,将 N 和 F 增大,在 CIFAR-10 和 ImageNet 上进行训练和测试。这里的问题是,我们找到的网络结构在最好的 benchmark datasets 上的表现是怎么样的。

在 CIFAR-10 上实验的结果如下图:

在 ImageNet (Mobile、Large)上实验的结果如下图:

【关于在 CIFAR-10 和 ImageNet 上的实验结果的具体讲解,请回看视频 00:35:30 处】

http://www.mooc.ai/open/course/550?=aitechtalkliuchenxi

对我们的工作做一下总结:

第一,我们提出了一种神经网络结构搜索方法,具体采用的是从简单到复杂的方法,同时,为了让这个算法变得更具可预测性,我们学习了一个 surrogate function 来指导搜索。

第二,我们将最后搜索出来的结果叫做 PNASNet-5 ,它在 CIFAR-10 和 ImageNet 上达到了非常高的准确率,且在搜索过程中比当下最好的增强学习和进化算法的方法都更快。

我们在 ImageNet 上训练好的 PNASNet-5 模型已经 release 了,包括刚刚提到在 ImageNet 上的 Mobile、 Large 模型,Both TensorFlow 、PyTorch 模型,以及(据我所知)在 ImageNet 所有对外开放的模型中准确度和效率最高的 SOTA 模型,大家如果有需要可以到相应网址找到。

我们的 Paper 自在 ECCV 上发表后,有了很多新的变化和 Extensions。我们的算法被用到类似的 Task 中,比如 PPP-Net 和 DPP-Net 的 Pareto-optimal architectures 或者 Meta-learning 中,都取得了不错的效果。

而在我们的论文中没有解决的问题是,我们对每个单独 sample 出来的模型进行单独训练,彼此间没有很好的 Sharing。最近有一篇论文将我们的方法与其他方法进行结合,使神经网络结构搜索的速度变得更快、更有效率。

以上就是本期嘉宾的全部分享内容。更多公开课视频请到雷锋网 AI 研习社社区(https://club.leiphone.com/)观看。关注微信公众号:AI 研习社(okweiwu),可获取最新公开课直播时间预告。

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2018-10-03

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏AI研习社

Keras 之父讲解 Keras:几行代码就能在分布式环境训练模型

AI研习社按:在今年的谷歌开发者大会 I/O 2017 的讲座中,Keras 之父 Francois Chollet 被请出来向全世界的机器学习开发者进行一场对...

56250
来自专栏AI派

推荐系统EE问题与Bandit算法

生活中你可能会遇到类似的情况,你在网上购买了手机,淘宝之后会不断给你推送关于手机相关的商品;如果你看了关于NBA詹姆斯的相关新闻,今日头条之后会不断给你推送詹姆...

22320
来自专栏机器之心

如何从零开始构建深度学习项目?这里有一份详细的教程

选自Medium 作者:Jonathan Hui 机器之心编译 在学习了有关深度学习的理论课程之后,很多人都会有兴趣尝试构建一个属于自己的项目。本文将会从第一步...

35080
来自专栏大数据文摘

手把手:自然语言处理太难?按这个套路走,就是砍瓜切菜!(附Python代码)

20620
来自专栏人工智能LeadAI

从零开始掌握Python机器学习(附不可错过的资源)

01 基 础 篇 01 基本Python 如果我们打算利用 Python 来执行机器学习,那么对 Python 有一些基本的了解就是至关重要的。幸运的是,因为 ...

40750
来自专栏量子位

面对数据缺失,如何选择合适的机器学习模型?

作者:阿萨姆 普华永道 | 数据科学家 量子位 已获授权编辑发布 转载请联系原作者 有些小伙伴在实际使用中发现xgboost可以自动处理缺失值,而有些模型不可以...

57760
来自专栏CDA数据分析师

谷歌教你学 AI -第二讲机器学习的7个步骤

翻译: VV 校对: Mika 本文为 CDA 数据分析师原创作品,转载需授权 Google Cloud发布了名为"AI Adventures"的系列视频,用...

25470
来自专栏IT派

机器学习算法一览

认识人工智能,还需要理清几个概念之间的关系:人工智能是一个大的概念,是让机器像人一样思考甚至超越人类;而机器学习是实现人工智能的一种方法,是使用算法来解析数据、...

15720
来自专栏AI研习社

进入 kaggle 竞赛前 2% 的秘诀

前几年,我找到了一些标准的流程来探索特征进而建立起更好的机器学习模型。这些简单但是强大的技术帮我在 Instacart 网站购物车分析竞赛中排进前2%,而且在其...

10040
来自专栏计算机视觉战队

学习迁移架构用于Scalable图像的识别

论文出自Google Brain,是对前一篇论文的改进,前一篇文章讲述了用RNN去搜索一个最好的网络结构,而这篇文章认为之前的搜索空间太大,效果不好,所以改成搜...

34450

扫码关注云+社区

领取腾讯云代金券