前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【重温经典】吴恩达机器学习课程学习笔记五:多元梯度下降

【重温经典】吴恩达机器学习课程学习笔记五:多元梯度下降

作者头像
WZEARW
发布2018-04-13 11:27:37
5620
发布2018-04-13 11:27:37
举报
文章被收录于专栏:专知

【导读】前一段时间,专知内容组推出了春节充电系列:李宏毅2017机器学习课程学习笔记,反响热烈,由此可见,大家对人工智能、机器学习的系列课程非常感兴趣,近期,专知内容组推出吴恩达老师的机器学习课程笔记系列,重温机器学习经典课程,希望大家会喜欢。

【重温经典】吴恩达机器学习课程学习笔记一:监督学习

【重温经典】吴恩达机器学习课程学习笔记二:无监督学习(unsupervised learning)

【重温经典】吴恩达机器学习课程学习笔记三:监督学习模型以及代价函数的介绍

【重温经典】吴恩达机器学习课程学习笔记四:梯度下降

吴恩达机器学习课程系列视频链接

http://study.163.com/course/courseMain.htm?courseId=1004570029

春节充电系列:李宏毅2017机器学习课程学习全部笔记

吴恩达课程学习笔记五:多元梯度下降

1、多种特征



在前面的总结中介绍了根据房子size去预测price的例子,其中特征只有size。下面将这个例子复杂化,即现在有四个特征可能会影响最终的price。

如下图所示,一些参数的解释是:

n为特征的种类数目

为第i个训练样本的特征集合

为第i个训练样本中的第j个特征

此时预测函数表示如下(当然按照上述的例子,这里n取4):

注意:在这里,为了表示方便,设置

,即对任意i,有

,利用行列式同样可以简化表示。

2、多元梯度下降算法



根据上文所总结可知,预测函数,参数以及代价函数如下:

这里用

(它是一个n+1维向量)来表示参数

则代价函数表示为

,这里参数也要求同时更新。

下图右下部分给出了前三个参数的更新过程(其它参数也是类似):

3、多元梯度下降法演练之特征缩放



特征缩放的原因:如下图所示,假设有两种特征,一种是房子的size,范围在0-2000,另一种是卧室的数目,范围在1-5。

如果忽略

,则绘出

的等高线图如下(非常的“瘦高”),在进行梯度下降时,会反复来回振荡,下降地非常缓慢。但是按照下图右半部分进行处理后,会相对较快地下降到最低点。

特征缩放的默认规则:尽量使得每个特征的取值范围变为-1—1之间,但并不是一定要特别精确,在-3—到3,以及-1/3—1/3都算比较合理。

即只要特征缩放后的取值范围近似就可以,不需要太精确,特征缩放的目的是为了让梯度下降地更加快一点。

4、多元梯度下降法演练之学习率



如何知道梯度下降算法收敛:

如下图所示,绘制出了J(θ)的值随着迭代次数变化的图像(横轴代表迭代次数),图中所示,在迭代了300—400次后J(θ)的值几乎不变,可以认为已经收敛。

也可以下图右半部分描述的自动检测收敛的方法:即下一次迭代后的J(θ)值与前一次差值在小于

(图中给出的是

)时就认为已经收敛。但在实际情况下,选择合适的

值并不容易。

如何选择学习率使得梯度下降算法正常运行:

如图所示,对于左上部分,可能由于学习率设置的过大,使得J(θ)一直无法收敛。左下图显示的是J(θ)上下振动,这两种情况都可以通过减小学习率α来使得下降算法最终收敛。

两点说明:

对于线性回归来说,已经被证明,小的学习率一定会使得在每次的迭代过程中都使得J(θ)减小。

如果学习率过小,则收敛的速度会很慢。

如上图,为了选择合适的学习率,可以每隔十倍取一个α值,观察J(θ)的收敛情况,从而选取较为合适的α值。

下一次的总结笔记中将与你一同学习特征与多项式回归的相关内容。

参考链接:

http://study.163.com/course/courseMain.htm?courseId=1004570029

请关注专知公众号

  • 后台回复“NGML2018” 就可以获取 吴恩达机器学习课程下载链接
本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-04-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 专知 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档