首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器学习——L1约束最小二乘法

昨天介绍的是基于L2约束的最小二乘法,就是最后加了一项参数的L2范数的正则项作为约束条件,以此来防止过拟合,也被称为岭回归RR(Ridge Regression)。

今天介绍的L1约束的最小二乘学习的方法,其实就是将L2的约束条件改成了L1范数的,这样做的结果就是可以使最后求解得到的参数尽可能稀疏,L1约束的LS也被称作Lasso(Least absolute shrinkage and selection operator),它由 Tibshirani在1996年提出,该方法是一种压缩估计。它通过构造一个罚函数得到一个较为精炼的模型,使得它压缩一些系数,同时设定一些系数为零。因此保留了子集收缩的优点,是一种处理具有复共线性数据的有偏估计。

两个表达式的等高线如图:

可以看出来,L2约束条件是一个球,L1约束是一个多面体,所以L1约束条件与J相交有更大的可能会交在坐标轴上,也就是稀疏解(0多),这样做的好处就是节省计算量。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180402G1XF7500?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券