我有一个关于岭回归的问题,以及当数据集很大时它的好处(相对于OLS)。当数据集较大时(例如50,000 vs 1000),脊线回归的好处是否消失了?当数据集足够大时,常规的OLS模型难道不能确定哪些参数更重要,从而减少对惩罚项的需求吗?当数据集较小且存在高方差的空间时,岭回归是有意义的,但对于大型数据集,我们是否期望它的预期好处
我试图实现我自己的岭回归算法,并尝试实现在回归的MATLAB教程中找到的相似系数。X) % Removes NaN data
-0.0102 0.0000
在上面,你可以看到第一个系数约为60,其余的系数非常接近于我试图达到类似的结果,使用岭回归与完全相同的数据集“小”提供的MATLAB。下面是我编写的</e