本文是吴恩达《机器学习》视频笔记第20篇,对应第2周第2个视频。
“Linear Algebra review(optional)——Gradient descent for multiple variables”
01
—
笔记
上一视频讲了多元变量的基础,最后给出了一个多元线性回归模型。这次视频讲解如何确定多元回归模型的参数,重点讲梯度下降法。
如下图,n个自变量引入n+1个参数,如果再人为增加一个 恒等于1的 ,那就可以写成 , 这里的 是个列向量,转置以后变成一个行向量。
回想第一周里面讲到过的代价函数,类似的可以定义多元情况下的代价函数。
同样类似的,我们可以设计梯度下降求解参数的算法:
一元的时候,还记得我们是怎样使用梯度下降的么?
与一元的类似,只是计算更加繁琐了。
以二元为例:
你会发现和一元的情况极为类似,只是多了一个 而已。
对比上周的内容,这一次视频的内容就比较容易理解了。