前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Logistic回归损失函数证明

Logistic回归损失函数证明

作者头像
chaibubble
发布2018-01-02 11:49:14
1.8K0
发布2018-01-02 11:49:14
举报
文章被收录于专栏:深度学习与计算机视觉

理解Logistic回归算法原理中我们指出了Logistic回归的损失函数定义(在这里重新约定符号):

这里写图片描述
这里写图片描述

而对于全体样本集的成本函数,就可以表示为:

这里写图片描述
这里写图片描述

与损失函数不同的是,它描述了在全体样本上集上,模型的参数w和b与优化目标之间的关系,在这两个公式中,成本函数其实是损失函数的平均值。

那么我们先看一下对于损失函数而言,为什么它能发挥作用:

如果期望输出y=1,那么优化目标为min L(y,y_hat)=min[-log(y_hat)],显然此时y_hat的越大,优化目标会得到最小值; 如果期望输出y=0,那么优化目标为min L(y,y_hat)=min[-log(1-y_hat)],显然此时y_hat的越小,优化目标会得到最小值;

下面证明下这个损失函数是怎么来的: Logistic回归模型如下:

这里写图片描述
这里写图片描述

那么令y_hat为给定x的情况下y=1的概率:

这里写图片描述
这里写图片描述

那么则有:

这里写图片描述
这里写图片描述

由于是个二分类问题,y的值非1即0,那么合并上式就可得到:

这里写图片描述
这里写图片描述

同时由于log函数是严格单调递增的函数,在机器学习中,我们往往不太关注log的底数到底是什么,甚至直接省略掉,所以出现了log的写法,但是在数学中这样写是错的。所以,为了后续求解方便,我们可以取对数:

这里写图片描述
这里写图片描述

而对于成本函数来说,他对于整个训练集优化w和b,所以就有了这个上面出现过的式子:

这里写图片描述
这里写图片描述

在这里其实是可以用最大似然估计的方法来求这个解的,但是在实际的优化中,我们往往直接使用梯度下降法。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2017-09-25 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档