前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[机器学习算法]逻辑回归模型

[机器学习算法]逻辑回归模型

作者头像
TOMOCAT
发布2020-06-09 18:05:58
5400
发布2020-06-09 18:05:58
举报

前言

线性回归模型可以用于回归模型的学习,当我们需要用线性模型实现分类问题比如二分类问题时,需要用一个单调可微函数将线性回归的连续结果映射到分类回归真实标记的离散值上。

推导过程

考虑二分类任务,其输出标记:

y\in\{0,1\}
y\in\{0,1\}

但是线性回归模型产生的预测值是实值z,因此我们需要将实值

z
z

转化为

的离散值,最理想的函数就是“单位阶跃函数”unit-step function

y= \begin{cases} 0,z<0\\ 0.5,z=0\\ 1,z>0\\ \end{cases}
y= \begin{cases} 0,z<0\\ 0.5,z=0\\ 1,z>0\\ \end{cases}

即当预测值

z
z

大于

就判为正例,预测值

z
z

小于

就判为负例,预测值为

即可任意判别。 然而单位跃阶函数本身不连续,我们希望找到能在一定程度上近似单位阶跃函数的“替代函数”,并希望它单调可微。对数几率函数logistic function正好能满足这个要求:

y=\frac{1}{1+e^{-z}}
y=\frac{1}{1+e^{-z}}

从而因变量y与自变量x的表达式为:

y=\frac{1}{1+e^{-(w^Tx+b)}}
y=\frac{1}{1+e^{-(w^Tx+b)}}

也可以写作:

ln\frac{y}{1-y}=w^Tx+b
ln\frac{y}{1-y}=w^Tx+b

注:若将

y
y

视为样本

x
x

作为正例的概率,那么

1-y
1-y

就是其作为反例的概率,那么两者的比值:

y/(1-y)
y/(1-y)

称为“几率”(odds),反映了

x
x

作为正例的相对可能性,对几率取对数则得到“对数几率”(log odds,也叫做logit)

由于“对数几率”的取值是实值,因此我们相当于用线性回归方法的预测结果去逼近真实标记的对数几率。

参数估计

前面我们已经解释过

y
y

相当于样本

x
x

作为正例的概率,那么模型可改写成:

ln\frac{p(y=1|x)}{p(y=0|x)}=w^Tx+b
ln\frac{p(y=1|x)}{p(y=0|x)}=w^Tx+b

根据:

p(y=1|x)+p(y=0|x)=1
p(y=1|x)+p(y=0|x)=1

我们可以得到:

p(y=1|x)=\frac{e^{w^Tx+b}}{1+e^{w^Tx+b}}
p(y=1|x)=\frac{e^{w^Tx+b}}{1+e^{w^Tx+b}}
p(y=0|x)=\frac{1}{1+e^{w^Tx+b}}
p(y=0|x)=\frac{1}{1+e^{w^Tx+b}}

给定数据集

D
D

D=\{(x_i,y_i)\},i=1,2,...,m
D=\{(x_i,y_i)\},i=1,2,...,m

我们通过极大似然法maximum likelihood method估计

w
w

b
b

,即令每个样本属于其真实标记的概率越大越好:

l(w,b)=\sum_{i=1}^{m}lnp(y_i|x_i;w,b)
l(w,b)=\sum_{i=1}^{m}lnp(y_i|x_i;w,b)

逻辑回归优点

  1. 直接对分类可能性建模,无需实现假设数据分布,这样就避免了假设分布不准确所带来的问题
  2. 不仅能够预测类别,而且可以得到不同分类的概率预测,对许多需利用概率辅助决策的任务很有用。
  3. 对率函数是任意阶可导的凸函数,有很好的数学性质
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 前言
  • 推导过程
  • 参数估计
  • 逻辑回归优点
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档