在基本的线性回归中(可见简单易学的机器学习算法——线性回归(1)),对于一个线性回归为题,我们得到一个线性方程组:
在上一篇中我们是构建平方误差函数使得误差函数取得最小值得方法求得回归系数
换种思考,对于这样的一个线性方程组的求解我们有其他的方式,这里我们提到了广义逆。
对于上面的线性方程组
,利用Moore-Penrose广义逆,我们可以求得回归系数为:
。
我们同样采用简单易学的机器学习算法——线性回归(1)中的实验数据,我们得到以下的实验结果:
原始数据
最佳拟合直线
MATLAB实验源码
主函数
%% load Data
A = load('ex0.txt');
X = A(:,1:2);%读取x
Y = A(:,3);
ws = pinvRegres(X,Y);
%% plot the regression function
x = 0:1;
y = ws(1,:)+ws(2,:)*x;
hold on
xlabel x;
ylabel y;
plot(X(:,2),Y(:,1),'.');
plot(x,y);
hold off
求线性回归系数
function [ ws ] = pinvRegres( X, Y )
[m,n] = size(X);
ws = zeros(m,1);
ws = pinv(X)*Y;
end