前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >logistic regression一点理解

logistic regression一点理解

作者头像
用户1332428
发布2018-10-08 15:19:12
5240
发布2018-10-08 15:19:12
举报
文章被收录于专栏:人工智能LeadAI人工智能LeadAI

全文共1268个字,36张图,预计阅读时间10分钟。

关于logistic regression一些常见问题,整理出来,方便大家应对各种坑爹的面试官。

01

为什么用sigmoid函数?

the odds of experiencing an event

如果我们想预测每天股票涨多少,可以假设线性模型

要解决这个问题,我们先理解一个概念the odds of experiencing an event: 假设我们认为股票涨的概率为p,对于伯努利分布而言,不涨的概率即为1-p。那么我们构造了p/(1-p),就是the odds of experiencing an event胜率,

趋向负无穷。这就又转化为可以用线性模型预测的问题了:即为对数胜率。当我们坚信它会涨的情况下,p趋于1,

趋向正无穷;当我们坚信它不会涨的情况下,p趋向0,

趋于负无穷。这就又转化为可以用线性模型预测的问题了:

展开就可以得到:

。这就解释了为什么说logistic regression是线性模型,因为它的决策边界是线性的;这就解释了为什么想到了要用sigmoid作为压缩函数。

exponential model

就这一种办法么?当然不是: 假设第i个特征对涨的贡献是

,则记数据点(

,属于涨的概率为

正比于

假设第i个特征对不涨的贡献是

,则记数据点(

属于不涨的概率为

,正比于

所以,令涨=1则有:

,上下同除以

且令

,则依旧得到了

的sigmoid结果。

exponential family

如果大家对数学有点点研究的话,exponential family指出:如果一类分布(a class of distribution)属于exponential family,那么它能写成如下形式:

伯努利分布可以写成:

把后面的

展开,就有了sigmoid形式出现了:

对应上方的exponential family的形式,

,这不又回到了the odds of experiencing an event胜率的问题了嘛。

02

为什么要用交互熵做损失函数?

极大似然角度

我们假设预测结果服从伯努利分布,那么可以把一个case预测结果写成:

其中

为给定前提

率值要使当前参数下所有事情发生的概率最大,联合分布为各边缘分布的乘积,得到:

其中

取log后方便计算:

这个就是我们最初的交互熵的形式。

信息熵角度

用来衡量信息量大小,熵越大,越不稳定,信息量越大。

KL散度

用来衡量两份数据的相似程度,KL散度越大,越不相似。

从公式上,我们就可以看出:

其实很好理解的,对应训练数据traindata分布,和未知的真实数据分布越一致越好;同理,模型预测的分布,和训练数据traindata分布也是越一致越好,所以用KL散度来度量就是一个不错的方法。

至于为什么不直接最小化

而是选择了最小化H(A,B),我是觉得就和交互熵求导前面加上1/2一样,为了简化计算量,本质上是一致的。

原文链接:https://www.jianshu.com/p/61ac39a57f9d

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-08-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能LeadAI 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档