史上最简洁易懂教程 用Excel理解梯度下降

AI 研习社按:本文作者为 Jahnavi Mahanta,前 American Express (美国运通公司)资深机器学习工程师、深度学习在线教育网站 Deeplearningtrack 联合创始人。

Jahnavi Mahanta:对算法的作用建立直觉性的理解——在我刚入门机器学习的时候,这让我觉得非常困难。不仅仅是因为理解数学理论和符号本身不容易,也因为它很无聊。我到线上教程里找办法,但里面只有公式或高级别的解释,在大多数情况下并不会深入细节。

就在那时,一名数据科学同事介绍给我一个新办法——用 Excel 表格来实现算法,该方法让我拍案叫绝。后来,不论是任何算法,我会试着小规模地在 Excel 上学习它——相信我,对于提升你对该算法的理解、完全领会它的数学美感,这个法子简直是奇迹。

案例

让我用一个例子向各位解释。

大多数数据科学算法是优化问题。而这方面最常使用的算法是梯度下降。

或许梯度下降听起来很玄,但读完这篇文章之后,你对它的感觉大概会改变。

这里用住宅价格预测问题作为例子。

现在,有了历史住宅数据,我们需要创建一个模型,给定一个新住宅的面积能预测其价格。

任务:对于一个新房子,给定面积 X,价格 Y 是多少?

让我们从绘制历史住宅数据开始。

现在,我们会用一个简单的线性模型,用一条线来匹配历史数据,根据面积 X 来预测新住宅的价格 Ypred。

上图中,红线给出了不同面积下的预测价格 Ypred。

Ypred = a+bX

蓝线是来自历史数据的实际住宅价格 Yactual。

Yactual 和 Ypred 之间的差距,即黄色虚线,是预测误差 E。

我们需要发现一条使权重 a,b 获得最优值的直线,通过降低预测误差、提高预测精度,实现对历史数据的最佳匹配。

所以,目标是找到最优 a, b,使 Yactual 和 Ypred 之间的误差 E 最小化。

误差的平方和 (SSE) = ½ a (实际价格 – 预测价格)2= ½ a(Y – Ypred)2

(请注意衡量误差的方法不止一种,这只是其中一个)

这时便是梯度下降登场的时候。梯度下降是一种优化算法,能找到降低预测误差的最优权重 (a,b) 。

理解梯度下降

现在,我们一步步来理解梯度下降算法:

  1. 用随机值和计算误差(SSE)初始化权重 a 和 b。
  2. 计算梯度,即当权重(a & b)从随机初始值发生小幅增减时,SSE 的变动。这帮助我们把 a & b 的值,向着最小化 SSE 的方向移动。
  3. 用梯度调整权重,达到最优值,使 SSE 最小化。
  4. 使用新权重来做预测,计算新 SSE。
  5. 重复第二、第三步,直到对权重的调整不再能有效降低误差。

我在 Excel 上进行了上述每一步,但在查看之前,我们首先要把数据标准化,因为这让优化过程更快。

第一步

用随机值的 a、b 初始化直线 Ypred = a + b X,计算预测误差 SSE。

第二步

计算不同权重的误差梯度。

∂SSE/∂a = – (Y-YP)

∂SSE/∂b = – (Y-YP)X

这里, SSE=½ (Y-YP)2 = ½(Y-(a+bX))2

你需要懂一点微积分,但没有别的要求了。

∂SSE/∂a、∂SSE/∂b 是梯度,它们基于 SSE 给出 a、b 移动的方向。

第三步

用梯度调整权重,达到最小化 SSE 的最优值

我们需要更新 a、b 的随机值,来让我们朝着最优 a、b 的方向移动。

更新规则:

  • a – ∂SSE/∂a
  • b – ∂SSE/∂b

因此:

  1. 新的 a = a – r * ∂SSE/∂a = 0.45-0.01*3.300 = 0.42
  2. 新的 b = b – r * ∂SSE/∂b= 0.75-0.01*1.545 = 0.73

这里,r 是学习率= 0.01, 是权重调整的速率。

第四步

使用新的 a、b 做预测,计算总的 SSE。

你可以看到,在新预测上 总的 SSE 从 0.677 降到了 0.553。这意味着预测精度在提升。

第五步

重复第三、第四步直到对 a、b 的调整无法有效降低误差。这时,我们已经达到了最优 a、b,以及最高的预测精度。

这便是梯度下降算法。该优化算法以及它的变种是许多机器学习算法的核心,比如深度网络甚至是深度学习。

原文发布于微信公众号 - AI研习社(okweiwu)

原文发表时间:2017-04-30

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏小小挖掘机

L1正则化似懂非懂?不妨戳进来看一看

想必大家对L1正则化已经是再熟悉不过了,而且大家也都知道L1正则化是可以得到稀疏解的,即具有特征选择的功能。本文就从几何和数学两个角度来复习以下L1正则化。

14520
来自专栏ATYUN订阅号

可能提高GAN性能的方法介绍

生成器试图找到最好的图像来欺骗鉴别器。当两个网络互相对抗时,“最佳”图像不断变化。但是,优化可能会变得过于贪心,使其陷入永无止境的猫捉老鼠游戏中。这是模型不收敛...

25740
来自专栏大数据挖掘DT机器学习

银行风控案例:Logistics模型预测银行贷款违约

在面试中会经常碰到考察对数据挖掘算法的熟悉程度,面试官会出一道题或给出一些数据,让你结合实际谈谈你选择什么模型,该模型的大致原理是什么,使用条件有哪些,模型优缺...

621120
来自专栏PaddlePaddle

卷积神经网络的经典结构(一)

正文部分系《解析卷积神经网络——深度学习实践手册》基础理论篇部分,本次将详细介绍卷积神经网络中经典结构,小结部分将前述的基础理论篇的讲解链接附上,方便大家进行参...

13340
来自专栏智能算法

结合Scikit-learn介绍几种常用的特征选择方法(上)

特征选择(排序)对于数据科学家、机器学习从业者来说非常重要。好的特征选择能够提升模型的性能,更能帮助我们理解数据的特点、底层结构,这对进一步改善模型...

1.5K60
来自专栏技术专栏

Python3入门机器学习(六)- 梯度下降法

以下是定义了一个损失函数以后,参数theta对应的损失函数J的值对应的示例图,我们需要找到使得损失函数值J取得最小值对应的theta(这里是二维平面,也就是我们...

38730
来自专栏专知

【干货】一种直观的方法认识梯度下降

【导读】本文是深度学习专家Thalles Silva分享的一篇技术博客,主要讲解机器学习算法中的梯度下降。首先从形象的角度介绍梯度下降:梯度、偏导数等。然后,根...

48860
来自专栏SIGAI学习与实践平台

随机森林概述

在SIGAI之前的公众号文章“大话AdaBoost算法”中我们介绍了集成学习的思想以及Boosting算法,今天的文章中我们将为大家介绍另外一种集成学习算法-随...

19820
来自专栏机器学习算法工程师

一文看懂常用的梯度下降算法

作者:叶 虎 编辑:祝鑫泉 一 概述 梯度下降算法(Gradient Descent Optimization)是神经网络模型训练最常用的优化算法。对于深...

570100
来自专栏生信小驿站

无监督学习 聚类分析③

可以看到有16个指标支持最佳聚类数目为3,5个指标支持聚类数为2,所以该方法推荐的最佳聚类数目为3.

10440

扫码关注云+社区

领取腾讯云代金券