首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >对L1正则化和L2正则化的理解[通俗易懂]

对L1正则化和L2正则化的理解[通俗易懂]

作者头像
全栈程序员站长
发布2022-07-27 18:11:05
发布2022-07-27 18:11:05
4.4K0
举报

大家好,又见面了,我是你们的朋友全栈君。

一、 奥卡姆剃刀(Occam’s razor)原理:

在所有可能选择的模型中,我们应选择能够很好的解释数据,并且十分简单的模型。从贝叶斯的角度来看,正则项对应于模型的先验概率。可以假设复杂模型有较小的先验概率,简单模型有较大的先验概率。

二、正则化项

2.1、什么是正则化?

正则化是结构风险最小化策略的实现,在经验风险上加一个正则项或罚项,正则项一共有两种L1正则化和L2正则化,或者L1范数和L2范数。对于线性回归模型,使用L1正则化的模型叫做Lasso回归;使用L2正则化的模型叫做Ridge回归(岭回归)

2.2、正则化项和模型复杂度之间的关系

正则化项一般是模型复杂度的单调递增的函数,模型越复杂,正则化值越大。

一般来说,监督学习可以看做最小化下面的目标函数:

上式中的第1项为经验风险,即模型f(x)关于训练数据集的平均损失;第2项为正则化项,去约束我们的模型更加简单

三、L1范数

3.1概念: L1范数是指向量中各个元素绝对值之和。

3.2 为什么L1范数会使权值稀疏?

任何的正则化算子,如果他在Wi=0的地方不可微,并且可以分解为“求和” 的形式,那么这个正则化算子就可以实现稀疏。

3.3 参数稀疏有什么好处?

(1)特征选择(Feature Selection)

参数稀疏规则化能够实现特征的自动选择,在特征工程的过程中,一般来说,xi的大部分元素(特征)都和其标签yi没有关系的。我们在最小化目标函数的时候,考虑了这些无关特征,虽然可以获得最小的训练误差,但是对于新的样本时,这些没用的信息反而被考虑,干扰了对样本的预测。稀疏规则化将这些没用的特征的权重置为0,去掉这些没用的特征。

(2)可解释性

将无关特征置为0,模型更容易解释。例如:患某种病的概率为y,我们收集到的数据x是1000维的,我们的任务是寻找这1000种因素是如何影响患上这种病的概率。假设,我们有一个回归模型:y=w1*x1+w2*x2+…+w1000*x1000+b,通过学习,我们最后学习到w*只有很少的非零元素。例如只有5个非零的w*,那么这5个w*含有患上这种病的关键信息。也就是说,是否患上这种病和这5个特征相关,那事情变得容易处理多了。

四、L2范数

4.1 概念:L2范数是指向量各元素的平方和然后再求平方根。

正则化项可以取不同的形式。对于回归问题中,损失函数是平方损失,正则化项为参数向量L2的范数。

4.2 为什么L2范数可以防止过拟合?

左一:欠拟合;中间:正常拟合;右侧:过拟合

线性回归拟合图

让L2范数的正则项||W||2最小,可以使得W的每个元素都很小,都接近于0。(L1范数让W等于0),而越小的参数说明模型越简单,越简单的模型越不容易产生过拟合的现象。(结合上图线性回归拟合图可知,限制了某些参数很小,其实也就限制了多项式的某些分量的影响很小,这也就相当于减少了变量的个数)

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/128182.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年4月1,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、 奥卡姆剃刀(Occam’s razor)原理:
  • 二、正则化项
  • 三、L1范数
  • 四、L2范数
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档