前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >岭回归算法_tikhonov正则化与岭回归

岭回归算法_tikhonov正则化与岭回归

作者头像
全栈程序员站长
发布2022-09-24 14:00:29
6120
发布2022-09-24 14:00:29
举报
文章被收录于专栏:全栈程序员必看

大家好,又见面了,我是你们的朋友全栈君。

岭回归算法简介

回归算法的本质上就是为了解决一个线性方程: Ax = b 标准估计方法是普通的最小二法的线性回归,然而如果x是一个病态的矩阵,在这种情况下使用普通最小二法估计会导致过拟合或者欠拟合的情况。此外,岭回归还可以处理矩阵阵列的多重共线性问题。

通常最小二乘法寻求的是最小花平方残差的综合,公式:

在这里插入图片描述
在这里插入图片描述

在岭回归中,在这种最小化中加入正则化项:

在这里插入图片描述
在这里插入图片描述

其中Г是Tikhonov matrix矩阵,在许多情况下,这个矩阵被选为单位矩阵的倍数,Г=αI(注意:此处考虑的是具有较小范数的解决方案,不是较小系数,这里的系数指的是“回归系数”)

岭回归性质

1)岭回归与OLS的关系:

在这里插入图片描述
在这里插入图片描述

由于岭回归与OLS相差无几,这里就不在详细赘述了,直接上代码。 #实现岭回归的函数 def ridge_regression(array_x,array_y,lambda_1): #创建设计矩阵 X = np.column_stack((np.ones(array_x[0]),array_x)) #计算上面公式中A.TA+lambda单位矩阵I alpha_vector = np.dot(X.T,X)+lambda_1np.identity(X.shape[0]) #行列式判断A.TA是否可逆 if np.abs(linalg.det(alpha_vector))-0.0 < 10*-14: #如果不可逆,直接结束程序 return #如果可逆,计算回归系数 alpha = np.dot(alpha_vector,np.dot(X.T,array_y)) #将得到的截距项和回归系数返回 return alpha

#计算回归系数,有X_train,X_test,y_train,y_test数据集 ridge_data = ridge_regression(X_train,y_train,0.1) #预测(此处ridge_data[0]是截距项,ridge_data[1]是回归系数) pre_data = ridge_data[0] + ridge_data[1]*X_test

如有不理解,欢迎留言,大家共同进步!!!

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/171770.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 岭回归算法简介
  • 岭回归性质
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档