前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >深度学习中的优化算法总结

深度学习中的优化算法总结

作者头像
用户1432189
发布2019-08-20 11:12:05
9570
发布2019-08-20 11:12:05
举报
文章被收录于专栏:zingpLiuzingpLiu

    深度学习中的优化问题通常指的是:寻找神经网络上的一组参数θ,它能显著地降低代价函数J(θ)。针对此类问题,研究人员提出了多种优化算法,Sebastian Ruder 在《An overview of gradient descent optimizationalgorithms》(链接:https://arxiv.org/pdf/1609.04747.pdf )这篇论文中列出了常用优化算法的比较。主要优化算法有:GD、SGD、Momentum、Adagrad、Adadelta、RMSProp、Adam。

1 梯度下降法及其三个变种

1.1 BGD: Batch Gradient Descent

迭代规则:

BGD(批量梯度下降,这里的批量实际上是全部数据)每次迭代采用整个训练集数据来计算损失函数J(θ)对参数θ的的梯度。

每次迭代的参数更新公式为:

优点:

由于每一步迭代使用了全部样本,因此当损失函数收敛过程比较稳定。对于凸函数可以收敛到全局最小值,对于非凸函数可以收敛到局部最小值。

缺点:

每一步更新中,都要利用全部样本计算梯度,计算起来非常慢,遇到很大量的数据集也会非常棘手,而且不能投入新数据实时更新模型。

1.2 SGD: Stochastic Gradient Descent 

迭代规则:

SGD每次迭代利用每个样本计算损失函数对θ的梯度。

公式为:

优点:

由于每次迭代只使用了一个样本计算梯度,训练速度快,包含一定随机性,从期望来看,每次计算的梯度基本是正确的导数的。

缺点:

更新频繁,带有随机性,会造成损失函数在收敛过程中严重震荡。

1.3 MBGD:Mini-Batch Gradient Descent

迭代规则:MBGD 每一次利用一小批样本,即 n 个样本进行计算梯度( n 一般取值在 50~256)。

公式为:

优点:可以降低参数更新时的方差,收敛更稳定,另一方面可以充分地利用深度学习库中高度优化的矩阵操作来进行更有效的梯度计算。

缺点:不能保证很好的收敛性,learning rate 如果选择的太小,收敛速度会很慢,如果太大,损失函数就会在极小值处不停地震荡甚至偏离。(有一种措施是先设定大一点的学习率,当两次迭代之间的变化低于某个阈值后,就减小 learning rate,不过这个阈值的设定需要提前写好,这样的话就不能够适应数据集的特点。)

这三种算法都可能陷入鞍点和平滩底部。

2 Momentum

梯度下降法容易被困在局部最小的沟壑处来回震荡,可能存在曲面的另一个方向有更小的值;有时候梯度下降法收敛速度还是很慢。动量法就是为了解决这两个问题提出的。

更新公式:

当我们将一个小球从山上滚下来时,没有阻力的话,它的动量会越来越大,但是如果遇到了阻力,速度就会变小。 加入的这一项,可以使得梯度方向不变的维度上速度变快,梯度方向有所改变的维度上的更新速度变慢,这样就可以加快收敛并减小震荡。

超参数设定值:  一般 γ 取值0.5、0.9、0.99 左右。

优点:前后梯度一致的时候能够加速学习;前后梯度不一致的时候能够抑制震荡,越过局部极小值。(加速收敛,减小震荡。)

缺点:增加了一个超参数。

3 Adagrad:Adaptive gradient algorithm

    AdaGrad是一种可以自动改变学习速率的优化算法,只需设定一个全局学习速率ϵ,每次迭代使用的学习速率与历史梯度有关。

迭代算法:

优点:减少了学习率的手动调节。

缺点:分母会不断积累,学习率就会减小并最终会变得非常小。(一开始就积累梯度平方会导致有效学习率过早过量减小)。

4 RMSProp

RMSProp 是 Geoff Hinton 提出的一种自适应学习率方法。RMSprop 和 Adadelta(这里没有介绍)都是为了解决 Adagrad 学习率急剧下降问题的。

迭代规则:

    引入一个衰减系数,让r每次都以一定的比例衰减,类似于Momentum中的做法。衰减系数使用的是指数加权平均,旨在消除梯度下降中的摆动,与Momentum的效果一样,某一维度的导数比较大,则指数加权平均就大,某一维度的导数比较小,则其指数加权平均就小,这样就保证了各维度导数都在一个量级,进而减少了摆动。允许使用一个更大的学习率。

优点:相比于AdaGrad,这种方法更好的解决了深度学习中过早的结束学习的问题;适合处理非平稳目标,对RNN效果很好。

缺点:引入的新的超参:衰减系数ρ;依然依赖于全局学习速率

5 Adam: Adaptive Moment Estimation

    Adam本质上是带有动量项的RMSProp,它利用梯度的一阶矩估计和二阶矩估计动态调整每个参数的学习率。Adam的优点主要在于经过偏置矫正后,每一次迭代学习率都有个确定范围,使得参数比较平稳。

迭代规则:

优点:Adam 比其他适应性学习方法效果要好。适用于多数情况。

缺点:复杂。

6 如何选择优化算法

对于稀疏数据,尽量使用学习率可自适应的优化方法,不用手动调节,而且最好采用默认值

SGD通常训练时间更长,但是在好的初始化和学习率调度方案的情况下(很多论文都用SGD),结果更可靠

3 如果在意更快的收敛,并且需要训练较深较复杂的网络时,推荐使用学习率自适应的优化方法。

4 Adadelta,RMSprop,Adam是比较相近的算法,在相似的情况下表现差不多 。Adam 就是在 RMSprop 的基础上加了 bias-correction 和 momentum,随着梯度变得稀疏,Adam 比 RMSprop 效果会好。整体来讲,Adam 是最好的选择。

7 TensorFlow中的优化器

TensorFlow中实现了11种优化算法,具体如下:

优化器名称

文件路径

Adadelta

tensorflow/python/training/adadelta.py

adagrad

tensorflow/python/training/adagrad.py

adagrad Dual Averaging

tensorflow/python/training/adagrad_da.py

Adam

tensorflow/python/training/adam.py

Ftrl

tensorflow/python/training/ftrl.py

Gradient Descent

tensorflow/python/training/gradient_descent.py

Momentum

tensorflow/python/training/momentum.py

Proximal Adagrad

tensorflow/python/training/proximal_adagrad.py

Proximal Gradient Descent

tensorflow/python/training/proximal_gradient_descent.py

Rmsprop

tensorflow/python/training/rmsprop.py

Synchronize Relicas

tensorflow/python/training/sync_reolicas_optimizer.py

常用的通常是上面已经介绍过的几种。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2019-08-19 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1 梯度下降法及其三个变种
  • 1.1 BGD: Batch Gradient Descent
  • 1.2 SGD: Stochastic Gradient Descent 
  • 1.3 MBGD:Mini-Batch Gradient Descent
  • 2 Momentum
  • 3 Adagrad:Adaptive gradient algorithm
  • 4 RMSProp
  • 5 Adam: Adaptive Moment Estimation
  • 6 如何选择优化算法
  • 7 TensorFlow中的优化器
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档