专栏首页IT派机器学习算法(1)--梯度下降法的几种形式

机器学习算法(1)--梯度下降法的几种形式

阅读目录

  • 1. 批量梯度下降法BGD
  • 2. 随机梯度下降法SGD
  • 3. 小批量梯度下降法MBGD
  • 4. 总结

  在应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。

  下面我们以线性回归算法来对三种梯度下降法进行比较。

  一般线性回归函数的假设函数为:

  对应的能量函数(损失函数)形式为:

  下图为二维参数\theta_0 和 \theta_1 对应能量函数的可视化图:

1. 批量梯度下降法BGD

  批量梯度下降法(Batch Gradient Descent,简称BGD)是梯度下降法最原始的形式,它的具体思路是在更新每一参数时都使用所有的样本来进行更新,其数学形式如下:

  (1) 对上述的能量函数求偏导:

  (2) 由于是最小化风险函数,所以按照每个参数 θ的梯度负方向来更新每个 θ:

  具体的伪代码形式为:

  从上面公式可以注意到,它得到的是一个全局最优解,但是每迭代一步,都要用到训练集所有的数据,如果样本数目mm很大,那么可想而知这种方法的迭代速度!所以,这就引入了另外一种方法,随机梯度下降。

优点:全局最优解;易于并行实现;

缺点:当样本数目很多时,训练过程会很慢。

  从迭代的次数上来看,BGD迭代的次数相对较少。其迭代的收敛曲线示意图可以表示如下:

2. 随机梯度下降法SGD

  由于批量梯度下降法在更新每一个参数时,都需要所有的训练样本,所以训练过程会随着样本数量的加大而变得异常的缓慢。随机梯度下降法(Stochastic Gradient Descent,简称SGD)正是为了解决批量梯度下降法这一弊端而提出的。

  将上面的能量函数写为如下形式:

 利用每个样本的损失函数对θ求偏导得到对应的梯度,来更新θ:

  具体的伪代码形式为:

  随机梯度下降是通过每个样本来迭代更新一次,如果样本量很大的情况(例如几十万),那么可能只用其中几万条或者几千条的样本,就已经将theta迭代到最优解了,对比上面的批量梯度下降,迭代一次需要用到十几万训练样本,一次迭代不可能最优,如果迭代10次的话就需要遍历训练样本10次。但是,SGD伴随的一个问题是噪音较BGD要多,使得SGD并不是每次迭代都向着整体最优化方向。

优点:训练速度快;

缺点:准确度下降,并不是全局最优;不易于并行实现。

  从迭代的次数上来看,SGD迭代的次数较多,在解空间的搜索过程看起来很盲目。其迭代的收敛曲线示意图可以表示如下:

3. 小批量梯度下降法MBGD

  有上述的两种梯度下降法可以看出,其各自均有优缺点,那么能不能在两种方法的性能之间取得一个折衷呢?即,算法的训练过程比较快,而且也要保证最终参数训练的准确率,而这正是小批量梯度下降法(Mini-batch Gradient Descent,简称MBGD)的初衷。

  MBGD在每次更新参数时使用b个样本(b一般为10),其具体的伪代码形式为:

4. 总结

Batch gradient descent: Use all examples in each iteration;

Stochastic gradient descent: Use 1 example in each iteration;

Mini-batch gradient descent: Use b examples in each iteration.

作者:Poll的笔记

本文分享自微信公众号 - IT派(it_pai)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2017-06-10

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • 二十六条深度学习经验,来自蒙特利尔深度学习

    【前言】2016年8月初的蒙特利尔深度学习暑期班,由Yoshua Bengio、 Leon Bottou等大神组成的讲师团奉献了10天精彩的讲座,剑桥大学自然语...

    IT派
  • 四种GPU的性能分析

    导语:Pedro Gusmão 等人对于英伟达的四种 GPU 在四种不同深度学习框架下的性能进行了评测。本次评测共使用了 7 种用于图像识别的深度学习模型。 第...

    IT派
  • TensorFlow实现流行机器学习算法的教程汇总(1/3)

    有一些案例需要 MNIST 数据集进行训练和测试。运行这些案例时,该数据集会被自动下载下来(使用 input_data.py)。

    IT派
  • 机器学习之学习率 Learning Rate

    Spark学习技巧
  • CPython源码阅读笔记(1)

    目前 CPython 的开发已经迁移到了 Github 上,可以直接去 Github clone 对应的分支。 我们将基于 Python 2.7.13 版本, ...

    鱼塘小咸鱼
  • sysbench压测MyCAT的shell脚本

    中间件MyCAT自己之前也简单测试过,总结过。最近做分布式测试,我大体分了三个阶段: 一.环境部署,MHA和MyCAT的融合,读写分离 二.sharding策...

    jeanron100
  • 动物类及修改-C++

    汐楓
  • 《深度学习Ng》课程学习笔记02week3——超参数调试、Batch正则化和程序框架

    http://blog.csdn.net/u011239443/article/details/78088602 3.1 调试处理 参数: ? - 不要使...

    用户1621453
  • 基于FPGA的Canny算子设计(一)

    Canny算子计算流程: 高斯滤波和Sobel算子已经在前面讲过,所以这里主要讨论非最大值抑制和滞后分割电路设计。 非最大值一直电路设计 非最大值抑制主要是对...

    anytao
  • JDK源码分析-CyclicBarrier

    CyclicBarrier 是并发包中的一个工具类,它的典型应用场景为:几个线程执行完任务后,执行另一个线程(回调函数,可选),然后继续下一轮,如此往复。

    WriteOnRead

扫码关注云+社区

领取腾讯云代金券