前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >从贝叶斯角度看L1及L2正则化

从贝叶斯角度看L1及L2正则化

作者头像
石晓文
发布2018-07-25 14:43:15
1.2K0
发布2018-07-25 14:43:15
举报
文章被收录于专栏:小小挖掘机小小挖掘机

首先写一下为什么会写这个吧,之前在看linUCB的一篇博客的时候,看到了这么一段话:

纳尼!岭回归还可以从贝叶斯角度来得到呢!顿时觉得自己知识面太窄,暴露了自己渣渣的本质。既然知识面窄,那就废话不多说,恶补一波吧!本文涉及到的内容可能有点多,不过只要你能从头到尾读下来,相信你一定能够有所收获!

本文涉及的知识点有: 频率派和贝叶斯学派 概率和似然 拉普拉斯分布和正态分布 极大似然方法求线性回归 贝叶斯角度看L1和L2正则化

1、频率派和贝叶斯学派

频率派 频率派认为需要将推断的参数θ视作未知的定值,而样本X是随机的,其着眼点在样本空间,有关的概率计算都是针对X的分布。频率学派认为参数虽然我们不知道,但是它是固定的,我们要通过随机产生的样本去估计这个参数,所以才有了最大似然估计这些方法。

贝叶斯派 贝叶斯派把参数θ也视作满足某一个分布的随机变量,而样本X是固定的,其着眼点在参数空间,重视参数θ的分布,固定的操作模式是通过参数的先验分布结合样本信息得到参数的后验分布。

贝叶斯学派强调人的先验的作用,即人以往认知的作用。并且通过不断增添新的知识,来更新以往的认知。 举个例子来说:有一个袋子里面装了红球和黑球,在试验致歉,我们已知这个袋子里面是5黑5红的概率是0.8,是10黑5红的概率是0.2,这个概率分布称为先验概率。之后观察者开始新的观测或实验(有放回抽取100次,得到80次黑的,20次红的)。经过中间的独立重复试验,观察者获得了一些新的观测结果,这些新的观测将以含有不确定性的逻辑推断的方式影响观察者原有的认识,即观测者一开始认为袋子里是5黑5红的可能性更大,但是经过了上面的事实之后,修正了原有的认识,认为是10黑5红可能性更大,此时的概率称为后验概率。

2、概率和似然

在我们继续进行下去之前,我们先来弄清楚两个概念:似然(likelihood)和概率(probability)。两者都是对可能性的表示。概率是在给定了一定参数值后,表示了一件事物发生的可能性;而似然则反其道而行之,是在给定了一系列结果后,表示了某一组参数值的可能性。那么最大似然估计的思想,就是在给定了一组结果后哪一组参数的可能性最大;反过来说,就是使用这样一组参数,出现给定结果的可能性最大。

3、拉普拉斯分布和正态分布

拉普拉斯分布 拉普拉斯分布的概率密度函数为:

其中,u为位置参数,b>0是尺度参数。与正态分布相比,正态分布是用相对于u平均值的差的平方来表示,而拉普拉斯概率密度用相对于差的绝对值来表示。因此,拉普拉斯的尾部比正态分布更加平坦。拉普拉斯分布的图像如下图所示:

正态分布 想必大家对正态分布已经很熟悉了,因此这里我只做一个简单的介绍,正态分布又称为高斯分布,其概率密度函数如下图:

正态分布的图像如下图:

4、极大似然法求线性回归

4.1 线性回归回顾

4.2 从极大似然法求解线性回归

可以看到,第一项与Θ无关而且是常数,我们不用考虑,因此想要使上面的式子最大化,我们只需要下面的式子最小化即可,后面的操作就是导数为0啦。因此我们就用极大似然法求解了多元线性回归。

5、贝叶斯角度看L1和L2

兜兜转转这么多,终于到了我们的正题了,打起精神来,革命尚未成功,各位还需努力!

前面提到了,贝叶斯派认为我们要求解的参数是一个随机变量,服从一个概率分布,问题求解变成了在样本已知的情况下,后验概率最大化,即参数Θ最可能的取值,即:

因此上面的式子就变成了:

与上面的方法相比,我们要求解的式子只是多了一个P(Θ),即参数Θ的先验概率分布。

上面的式子可以进一步的化简:

对于第一部分,我们根据刚才利用极大似然求解多元线性回归的思路:

对于第二部分,根据参数Θ的先验概率分布的不同,我们有以下两种情况:

5.1 先验是正态分布

可以看到,如果参数Θ的先验概率分布是正态分布的话,我们可以得到类似于加入L2正则化的多元线性回归的损失函数。

5.2 先验是拉普拉斯分布

可以看到,如果参数Θ的先验概率分布是拉普拉斯分布的话,我们可以得到类似于加入L1正则化的多元线性回归的损失函数。

6、延伸阅读-参数的均值和方差

我们这里来求解一下当Θ的先验概率分布是正态分布时,Θ后验概率分布的均值方差。

6.1 均值

参数的均值即使损失函数最小的Θ的值:

6.2 方差

方差即中间的一项:

这块还没有搞懂。。。欢迎大佬们留言!

参考文章

https://blog.csdn.net/haolexiao/article/details/70243292 https://blog.csdn.net/Cerisier/article/details/78016486

推荐阅读:

推荐系统遇上深度学习系列:

推荐系统遇上深度学习(一)--FM模型理论和实践

推荐系统遇上深度学习(二)--FFM模型理论和实践

推荐系统遇上深度学习(三)--DeepFM模型理论和实践

推荐系统遇上深度学习(四)--多值离散特征的embedding解决方案

推荐系统遇上深度学习(五)--Deep&Cross Network模型理论和实践

推荐系统遇上深度学习(六)--PNN模型理论和实践

推荐系统遇上深度学习(七)--NFM模型理论和实践

推荐系统遇上深度学习(八)--AFM模型理论和实践

推荐系统遇上深度学习(九)--评价指标AUC原理及实践

推荐系统遇上深度学习(十)--GBDT+LR融合方案实战

推荐系统遇上深度学习(十一)--神经协同过滤NCF原理及实战

推荐系统遇上深度学习(十二)--推荐系统中的EE问题及基本Bandit算法

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-06-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 小小挖掘机 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1、频率派和贝叶斯学派
  • 2、概率和似然
  • 3、拉普拉斯分布和正态分布
  • 4、极大似然法求线性回归
    • 4.1 线性回归回顾
      • 4.2 从极大似然法求解线性回归
      • 5、贝叶斯角度看L1和L2
        • 5.1 先验是正态分布
          • 5.2 先验是拉普拉斯分布
          • 6、延伸阅读-参数的均值和方差
            • 6.1 均值
              • 6.2 方差
              • 参考文章
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档