机器学习之回归(二):广义线性模型(GLM)

导语:本文在上篇线性回归的基础上,延伸到广义线性模型,并把广义线性模型目的、假设条件来源,指数族分布、连接函数等各个函数的关系都进行详细地解释。最后用两个常见的GLM特例Logistics回归、Softmax模型进行了推导。

接上篇,我们了解了一下线性回归及其延伸回归的原理(传送门 机器学习之回归原理详述(一)),我们知道了线性回归是通过建立了一个线性模型来预测样本的值。而今天要聊的内容是线性模型的升级版,叫广义线性模型(GLM),基于此模型延伸而来的很多子模型很多,而且用途非常广,所以研究其很有意义!!!

GLM一个抽象模型,里面涉及了不少内容,很多相关文章也都有介绍。但是不少文章只是介绍了怎么用它,至于为什么引入,其各个角色之间的关系,介绍的不多。所以这篇文章中,我会引入很多个人看法(可能有错)和通俗的语言,来尝试把它讲的更明白些。由于内容有点生涩,关系有点乱,所以想了解原理的同学可能需要花点时间来好好了解,当然我自己也花了很多功夫。

为什么引入GLM?

上一篇文章中,我们知道了”回归“一般是用于预测样本的值,这个值通常是连续的。但是受限于其连续的特性,一般用它来进行分类的效果往往很不理想。为了保留线性回归”简单效果有不错“的特点,又想让它能够进行分类,因此需要对预测值再做一次处理。这个多出来的处理过程,就是GLM所做的最主要的事。而处理过程的这个函数,我们把它叫做连接函数。

如下图是一个广义模型的流程:

图中,当一个处理样本的回归模型是线性模型,且连接函数满足一定特性(特性下面说明)时,我们把模型叫做广义线性模型。因为广义模型的最后输出可以为离散,也可以为连续,因此,用广义模型进行分类、回归都是可以的。

但是为什么线性回归是广义线性模型的子类呢,因为连接函数是f(x) = x本身的时候,也就是不做任何处理时,它其实就是一个线性回归啦。

所以模型的问题就转化成获得合适的连接函数?以及有了连接函数,怎么求其预测函数

连接函数的获取

刚才说了,只有连接函数满足一定特性才属于广义线性模型。特性是什么呢?先简单描述下背景。

在广义线性模型中,为了提高可操作性,因此限定了Y和X的分布必须满足指数族分布:

其中

即为上图所提到的回归模型输出的连续值,也就是说

有上述条件,满足指数族分布的样本,就可以通过来E(T(Y))得到
了,也就是上图连接函数的输出值。
// PS:对于Y,X不满足指数族分布的,只不过不能用E(T(Y))来描述成
,其也不属于广义线性模型,但不是不可计算。

// PS1:E(T(Y))这个统计量为什么可以预测函数呢,这块是可以证明的,本文就不详述了。

事实上,指数分布族包括了除了柯西分布和t分布以外的其他基本分布,因此其适用域非常广。

从图中我们可以看到

为函数的输入,而
为函数的输出。所以有这么一个公式:

,但是,我们会把f的逆
称为连接函数(别问为什么,就是这么定义的。。。),也就是说以
为自变量,
为因变量的函数才叫连接函数。
不管是 f 还是
,其能反映输入输出的关系就行对吧。

所以求连接函数的步骤就变成:

1、把Y、X所满足的分布拼凑成指数族分布形式

2、在指数族分布形式中获得 T(Y)的函数形式和
的值。

3、算出 E(T(Y))和

的关系,并把
代入
中,获得连接函数,并得到

有了连接函数和
,就可以用最大似然估计啊、梯度下降算法啊来进行后一步的计算了。

常见连接函数求解及对应回归

伯努利分布 > Logistics回归

伯努利分布只有0、1两种情况,因此它的概率分布可以写成:

写成指数族分布的形式有:

这样在指数族分布中: B(y) = 1; T(Y) = y;

,

这样E(T(Y))= E(y);

由于伯努利分布是离散分布,因此它的期望:

所以:

又因为

,此函数输入为
也就是
,输出为
,这不就是我们要找的连接函数:

又因为

,代入
式子中,得到

化简得到:

(此函数又叫Sigmod函数)

用这个预测函数的回归,我们把它叫做Logistics回归

Logistics的回归的使用范围很广,例如判断是否垃圾邮件这种二分类问题上经常出现。

多项分布 > softmax回归

softmax理解:

假设有n个数x1、x2。。。xn,我们从中随机抽取一个数,请问这个数是什么?

答案显然是不知道的,但是我们可以回答,这个数最有可能是什么。

所以我们计算一下抽到xi的概率为p(xi),这样p(xi)占的比重为:

那我们可以写上答案为max p(x1), p(x2) ... p(xi) ... p(xn) 所对应的那个x。

但是呢,直接用max p(xi) ,其在取值域存在不可导点的,不利于计算。

因此为了消除它的不可导点,我们用了一种对概率曲线柔化后的max方式进行模拟,这种柔化的max我们把它叫做softmax。大概模拟的示意如图:

这种软化的方式是对概率指数化:

所以结果变成求max exp(p(xi)) ,以这种概率形式来对线性模型输出值做概率计算,并通过选取最大概率的方式来进行分类的模型,我们称之为softmax模型。

softmax多项分布解释:

刚才提了一个稍微好理解的方式。其实softmax和多项分布息息相关的,我们用最客观的方式推导一下。多项分布其实是伯努利分布的一个扩展,其取值可以从 1、2....k 中取,可以简单地建模为如下:

第1个数为1,其他数全为0,记为1

第k个数为1,其他数全为0,记为2

这样就对 1,2....k进行了区分。

因此它的概率分布如下:

其中u{y=k}的意思为:y==k ? 1: 0 相当输出1,否则为0。

因此对应在指数族分布中,其:

B(y) = 1;

所以有:

对上面等式从1至k相加可得:

这样我们就得到了
的一般形式。

而对于其期望和预测函数:

结论和上面说的拍脑门的方式一模一样。

Softmax的回归用的非常非常多,可以说是最常用的k分类器之一。真的很重要!!!

广义线性模型的计算

有了
这个概率密度函数,我们对其求对数似然函数:

其损失函数J也就是负的最大似然函数。对最大似然函数求梯度可得:

这个式子是一个广义线性模型通用的公式,也就是对于线性模型、Logistics等都适用。用此梯度不断对损失函数进行梯度下降,得到损失函数的最小值,并取出对应参数即可。这部分实现代码就不贴了,推荐一个python库sklearn,里面集成了很多模型,很适合新手上路。

附一个常见连接函数表(来源某付费学习视频PPT):

原创声明,本文系作者授权云+社区发表,未经许可,不得转载。

如有侵权,请联系 yunjia_community@tencent.com 删除。

编辑于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏数据科学与人工智能

【机器学习】机器学习之组合算法总结

组合模型 下面简单的介绍下Bootstraping, Bagging, Boosting, AdaBoost, RandomForest 和Gradient b...

25310
来自专栏数据科学与人工智能

【算法】聚类算法

小编邀请您,先思考: 1 有哪些算法可以聚类?各自有什么特点? 2 聚类算法的效果如何评价? 1 定义 聚类是数据挖掘中的概念,就是按照某个特定标准(如距离)把...

36213
来自专栏专知

神经网络编程 - 前向传播和后向传播(附完整代码)

【导读】本文的目的是深入分析深层神经网络,剖析神经网络的结构,并在此基础上解释重要概念,具体分为两部分:神经网络编程和应用。在神经网络编程部分,讲解了前向传播和...

2767
来自专栏机器之心

深度 | 通过方差分析详解最流行的Xavier权重初始化方法

30811
来自专栏机器之心

CVPR 2018 | Spotlight论文:解耦神经网络DCNet,性能优于标准CNN

1614
来自专栏机器人网

从零开始,了解元学习

传统的机器学习研究模式是:获取特定任务的大型数据集,然后用这个数据集从头开始训练模型。很明显,这和人类利用以往经验,仅仅通过少量样本就迅速完成学习的情况相差甚远...

1002
来自专栏机器学习算法与Python学习

Machine Learning -- 主动学习(AL)

参考论文:Survey on active learning algorithms. Computer Engineering and Applications...

4384
来自专栏marsggbo

Andrew Ng机器学习课程笔记--week5(下)

Neural Networks: Learning 内容较多,故分成上下两篇文章。 一、内容概要 Cost Function and Backpropagat...

1827
来自专栏书山有路勤为径

Regularizing your neural network

如果怀疑神经网络过度拟合了数据,即存在高方差问题那么最先想到的方法可能就是正则化,另一个解决高方差的方法就是准备更多数据,这也是非常可靠的办法,但你可能无法时时...

433
来自专栏算法channel

北大才女笔记:这样学习线性回归和梯度下降(上篇)

我们说到,机器学习中主要的两个任务就是回归和分类。如果读者有高中数学基础,我们很容易回忆到我们高中学习过的一种回归方法——线性回归。我们将这种方法泛化,就可以得...

920

扫码关注云+社区