前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >谷歌大脑发现神经网络的“牛顿法”:网络足够宽,就可以简化成线性模型

谷歌大脑发现神经网络的“牛顿法”:网络足够宽,就可以简化成线性模型

作者头像
量子位
发布2019-04-23 15:42:12
6570
发布2019-04-23 15:42:12
举报
文章被收录于专栏:量子位
晓查 发自 凹非寺 量子位 报道 | 公众号 QbitAI

来自谷歌大脑的研究者发现,对于宽神经网络,深度学习动态可以大大简化,并且在无限宽度限制条件下,它们由网络初始参数的一阶泰勒展开的线性模型所决定。

所谓的无限宽度(infinite width),指的是完全连接层中的隐藏单元数,或卷积层中的通道数量有无穷多。

虽然这些理论结果只是在无限宽度条件下成立,但谷歌发现原始网络的预测与线性版本的预测之间的一致性极好。而且对不同的体系结构、优化方法和损失函数都适用。

随着网络宽度变大,神经网络可以被其初始化参数的一阶泰勒展开项所取代。 而一阶线性模型动态的梯度下降是可解析的。

我们将这项研究的内容简单介绍如下:

实验方法

本文采用完全连接、卷积和宽ResNet体系结构,使用足够小的学习速率,用完全和小批(mini-batch)梯度下降来训练模型,对比原始模型和线性模型之间的差异。

最后在CIFAR-10 (马和飞机)上进行二元分类,以及在MNIST和CIFAR-10上进行十种分类。

理论原理

在高等数学中,有一种叫做“牛顿法”的方程近似解法。当所选区域足够小,就能用直线代替曲线,即一阶泰勒展开求近似解。在神经网络中,也有这么一种方法。

对于任何神经网络参数都可以做泰勒展开,即初始值加无限的多项式形式。当网络层的宽度趋于无限的时候,只需要展开中的第一个线性项,就成了线性模型。

假设D是训练集,X和Y分别表示输入和标注。这个完全连接的前馈网络有L个隐藏层、宽度为n。

在监督学习中,通过参数θ最小化经验损失,它是一个随时间变化的参数。f为输出的logits。

线性化网络

我们将神经网络的输出做一阶泰勒展开:

ωt定义为θt − θ0,即参数θ相对于初始值的变化。输出包含两个部分,第一项是神经网络输出的初始值,在训练过程中不会改变;第二项是训练过程中的改变量。

ωt和ft随时间的变化满足以下常微分方程(ODE):

无限宽度的高斯过程

随着隐藏层宽度的增加,更加统计学中的中心极限定理,输出的分别将趋于高斯分布。

logits f(x)的平均值和标准差满足以下方程:

结果讨论

当宽度无限且数据集有限时,神经网络的训练动态与线性化的训练动态相匹配。

在以前的实验中,选择足够宽的网络,能实现神经网络和较小数据集线性化之间较小的误差。

谷歌研究了如何在在模型宽度度和数据集大小在相当大的一个取值范围内,让线性化动态和真实动态之间取得一致性。

最终,谷歌考察了测试集上网络的预测输出和真实输出之间的均方根误差( RMSE )。RMSE会随着时间的推移而增加,直到训练结束时达到某个最终值。

我们可以看出,随着网络宽度的增加,二者之间的误差逐渐减小。对于全连接网络来说,这种下降的速率大约为1/N,对于卷积和WRN体系结构来说,则下降的比例更为模糊。

此外,我们还可以看出,误差随着数据集大小,呈近似线性增长。尽管误差随着会数据集增加,但可以通过相应地增加模型大小来抵消这一点。

作者系网易新闻·网易号“各有态度”签约作者

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-02-21,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 量子位 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 实验方法
  • 理论原理
    • 线性化网络
      • 无限宽度的高斯过程
      • 结果讨论
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档