前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >谷歌开源Neural Tangents:简单快速训练无限宽度神经网络

谷歌开源Neural Tangents:简单快速训练无限宽度神经网络

作者头像
机器之心
发布2020-04-14 15:34:14
7150
发布2020-04-14 15:34:14
举报
文章被收录于专栏:机器之心机器之心

选自Google AI Blog

机器之心编译

参与:Panda

无限宽的神经网络可以训练了?神经正切核果然可以发挥作用了。

近日,谷歌一项研究成果在社区引发了关注,该研究宣称可通过神经正切核(Neural Tangent Kernel)使用贝叶斯推理或梯度下降分析式地训练无限宽度的神经网络。使用谷歌开源的软件库 Neural Tangents,这个过程不仅简单且快速,而且效果非常好,甚至只需 5 行代码就能一步到位地构建并训练这种无限宽度网络的集成模型!该论文已被 ICLR 2020 接收为 Spotlight 论文,相关链接见文末。

在自然语言处理、会话智能体和连接组学等许多领域,深度学习都已取得了广泛的成功,机器学习领域的研究图景也已经发生了变革。不过,仍还有一些有趣而又重要的问题有待解答,比如:为什么即使在过度参数化时,深度神经网络(DNN)也能取得非常好的泛化能力?深度网络的架构、训练和性能之间有何关系?如何提取出深度学习模型中的显著特征?

我们何以在近些年里取得了如此的进步?一大关键理论见解是:增加 DNN 的宽度能使 DNN 的行为更有规律可循,也就人更容易理解它们。近来的许多研究已经表明,宽度可无限扩增的 DNN 可以收敛成另一类更为简单的名为「高斯过程(Gaussian processes)」的模型。因此,贝叶斯推理与卷积神经网络的梯度下降情况等复杂现象便可约简为简单的线性代数方程。从这些无限宽度网络所得到的见解通常也适用于它们对应的有限版本。因此,无限宽度网络可用作研究深度学习的透镜,而且它们本身也可用作有用的模型。

左图:深度神经网络变得无限宽时推导输入/输出映射关系的示意图。右图:随着神经网络宽度的增长,可以看到在网络的不同随机初始化上得到的输出分布逐渐变成高斯分布。

不幸的是,推导有限网络的无限宽度极限需要大量数学专业知识,而且必须针对每种不同架构专门研究。一旦推导得到了无限宽度模型,如果要得到一种高效且可扩展的实现,还进一步需要大量工程开发专业技能。总的来说,将有限宽度模型扩展成对应的无限宽度网络的这个过程可能耗费数月时间,而且这个研究本身就足以支撑起一篇研究论文。

为了解决这个问题,谷歌开源了一个用 Jax 写的开源软件库 Neural Tangents。谷歌宣称这个软件库可让无限宽度神经网络的构建与训练变得与有限宽度神经网络一样简单。究其核心,Neural Tangents 提供了一个易于使用的神经网络软件库,其可同时为神经网络构建有限和无限宽度的版本。

举个实际使用 Neural Tangents 的例子:假设要在某些数据上训练一个全连接神经网络,通常的做法是随机初始化一个神经网络,然后使用梯度下降来训练它。初始化并训练许多这样的神经网络可以得到一个集成模型。这个集成模型中各个模型成员都会给出一个预测结果,而为了得到最终结果,研究者和实践者通常的做法是求取这些结果的平均。这种做法通常能取得更好的表现。此外,集成模型中各个模型成员的预测结果还可用于估计不确定度。但训练集成模型也有缺点,即计算成本的预算很高,因此人们通常会避免这样操作。但是,如果神经网络的宽度变得无限大,就可以用一个高斯过程来描述这个集成模型了,而且这个高斯过程的均值和方差都可在训练过程中计算得到。

谷歌表示,使用 Neural Tangents,只需 5 行代码就能一步到位地构建并训练这种无限宽度网络的集成模型!下面展示了所得到的训练过程,而且谷歌还发布了一个可以尝试这一实验的交互式 Colab 笔记:

https://colab.sandbox.google.com/github/google/neural-tangents/blob/master/notebooks/neural_tangents_cookbook.ipynb

尽管事实上这种无限宽度的集成模型受一个简单的闭式表达式的控制,但它却能表现出与有限宽度集成模型的一致性。而且因为这种无限宽度的集成模型是一个高斯过程,所以它自然就能提供闭式的不确定度估计(上图中填充颜色的区域)。这些不确定度估计与在训练有限网络的许多不同副本(虚线)时所观察到的预测变化范围是紧密一致的。

上面的例子表明,无限宽度神经网络有习得并获取训练动态的能力。不仅如此,使用 Neural Tangents 构建的网络适用于任意可应用常规神经网络解决的问题。谷歌又给出了一个例子。下面比较了使用 CIFAR-10 数据集训练的三个不同的无限宽度神经网络架构。Neural Tangents 表现出色:不管是用梯度下降还是用完全贝叶斯的推理,都能以闭式形式评估无限宽残差网络等高度复杂的模型所组成的集成模型。而如果用有限宽度模型,这个任务根本无法解决。

可以看到,无限宽度网络与有限宽度网络相似,遵循着类似的层次结构:全连接网络的表现不及卷积网络,而卷积网络又赶不上宽残差网络。但是,不同于常规的训练方法,这些模型的学习动态完全可用闭式方法解决,这能让人以前所未有的方式理解这些动态,进而有助于揭开机器学习背后的奥秘,打开已困扰 AI 领域良久的深度学习黑箱。

想必现在你也想亲自探索一番了,以下链接中一定有你最感兴趣的探索形式:

  • 论文:https://arxiv.org/abs/1912.02803
  • Colab 笔记教程:https://colab.sandbox.google.com/github/google/neural-tangents/blob/master/notebooks/neural_tangents_cookbook.ipynb
  • GitHub 代码库:https://github.com/google/neural-tangents

参考链接:

http://ai.googleblog.com/2020/03/fast-and-easy-infinitely-wide-networks.html

本文为机器之心编译,转载请联系本公众号获得授权。

✄------------------------------------------------

加入机器之心(全职记者 / 实习生):hr@jiqizhixin.com

投稿或寻求报道:content@jiqizhixin.com

广告 & 商务合作:bd@jiqizhixin.com

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-04-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档