前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >吴恩达机器学习笔记 —— 5 多变量线性回归

吴恩达机器学习笔记 —— 5 多变量线性回归

作者头像
用户1154259
发布2018-07-31 17:21:24
3300
发布2018-07-31 17:21:24
举报

本篇主要讲的是多变量的线性回归,从表达式的构建到矩阵的表示方法,再到损失函数和梯度下降求解方法,再到特征的缩放标准化,梯度下降的自动收敛和学习率调整,特征的常用构造方法、多维融合、高次项、平方根,最后基于正规方程的求解。

在平时遇到的一些问题,更多的是多特征的

多变量的表示方法

多元线性回归中的损失函数和梯度求解

有时候特征各个维度是不同规模的,比如房间的平米数和房间数,两个数量级相差很大。如果不丛任何处理,可能导致梯度优化时的震荡。

一般如果特征时在可接受的范围内,是不需要做特征缩放的。如果很大或者很小,就需要考虑进行特征的缩放了。

标准化,即

自动收敛测试:如果梯度在优化后变化很小,比如10^-3,那么就认为梯度优化已经收敛。

如果发现误差在不断的增加或者不断的抖动,那么应该减小学习率,这一版都是由于学习率过大导致的震荡。但是如果学习率设置的很小,收敛的速度又会很慢。一般都是采用不同的学习率来测试,比如0.001, 0.01, 0.1, 1 ....

有的时候我们选择的特征,并不是直接使用数据,而是通过数据拟合出新的特征。比如我们有房子的长宽,但是使用特征的时候,可以构造出一个面积特征,会更有效果。

通过x构造新的特征替换高维特征

如果不希望房子的价格出现下降,可以构造平方根的特征:

基于正规方程解

基于梯度下降和正规方程的区别

如果特征之间共线,会导致矩阵不可逆

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018-07-16 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档