第二周主要讲解的内容包含:
还是利用房价模型的例子,增加了更多的特征,比如:房间楼层、房间数量、地理位置等,构成了一个含有多个变量的模型

n:代表的是特征的数量
x^{(i)}:代表第i个训练实例,是特征矩阵中的第i行,是一个向量vector
x^{(i)}_{j}:表示的是第i个训练实例的第j个特征;i表示行,j表示列
表示为:
为了简化公式,引入,公式转化为:
特征矩阵X 的维度是,公式简化为:
与单变量线性回归类似,在多变量线性回归中,构建一个代价函数,则这个代价函数是所有建模误差的平方和,即:

其中:



Python代码
给定特征矩阵X,输出y,学习率\theta,求代价函数J
import numpy as np
def computeCost(X,y,theta):
inner = np.power(((X * theta.T) - y), 2) # 求解每个平方项
return np.sum(inner) / (2 / len(X)) # 求和再除以2*len(X)面对多维度特征问题,我们需要保证这些特征具有相近的尺度,帮助梯度下降算法更快地收敛。
以房价问题为例,假设仅用两个特征,房屋的尺寸和数量,以两个参数分别为横纵坐标,假设尺寸在0-2000平方英尺,数量在0-5之间。
绘制代价函数的等高线图能,看出图像会显得很扁,梯度下降算法需要非常多次的迭代才能收敛。

解决办法:将所有的特征的尺度尽量缩放到-1到1之间,令:
其中


梯度下降算法的每次迭代受到学习率的影响
常用学习率包含:\alpha=0.01, 0.03, 0.1, 0.31, 3,10
如房价预测问题,
同时房屋面积=宽度 * 深度

在实际拟合数据的时候,可能会选择二次或者三次方模型;如果采用多项式回归模型,在运行梯度下降法之前,特征缩放很有必要。

需要多次迭代才能达到局部最优解

正规方程具有不可逆性
正规方程就是通过求解下面例子中的方程找出使得代价函数最小参数\theta:


不可逆矩阵不能使用正规方程求解
梯度下降和正规方程的比较:



import numpy as np
def normalEquation(X, y):
theta = np.linalg.inv(X.T@X)@X.T@Y # X.T@X等价于X.T.dot(X) @等价于.dot
return theta