Logistic回归损失函数证明

理解Logistic回归算法原理中我们指出了Logistic回归的损失函数定义(在这里重新约定符号):

而对于全体样本集的成本函数,就可以表示为:

与损失函数不同的是,它描述了在全体样本上集上,模型的参数w和b与优化目标之间的关系,在这两个公式中,成本函数其实是损失函数的平均值。

那么我们先看一下对于损失函数而言,为什么它能发挥作用:

如果期望输出y=1,那么优化目标为min L(y,y_hat)=min[-log(y_hat)],显然此时y_hat的越大,优化目标会得到最小值; 如果期望输出y=0,那么优化目标为min L(y,y_hat)=min[-log(1-y_hat)],显然此时y_hat的越小,优化目标会得到最小值;

下面证明下这个损失函数是怎么来的: Logistic回归模型如下:

那么令y_hat为给定x的情况下y=1的概率:

那么则有:

由于是个二分类问题,y的值非1即0,那么合并上式就可得到:

同时由于log函数是严格单调递增的函数,在机器学习中,我们往往不太关注log的底数到底是什么,甚至直接省略掉,所以出现了log的写法,但是在数学中这样写是错的。所以,为了后续求解方便,我们可以取对数:

而对于成本函数来说,他对于整个训练集优化w和b,所以就有了这个上面出现过的式子:

在这里其实是可以用最大似然估计的方法来求这个解的,但是在实际的优化中,我们往往直接使用梯度下降法。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏书山有路勤为径

Advanced CNN Architectures(R-CNN系列)

除了将该图像标记为猫外,还需要定位图中的猫,典型方法是在该猫周围画一个边界框,这个方框可以看做定义该方框的一系列坐标,(x,y) 可以是方框的中心w 和 h 分...

762
来自专栏算法修养

文本分类学习 (八)SVM 入门之线性分类器

SVM 和线性分类器是分不开的。因为SVM的核心:高维空间中,在线性可分(如果线性不可分那么就使用核函数转换为更高维从而变的线性可分)的数据集中寻找一个最优的超...

451
来自专栏计算机视觉战队

每日一学 | 线性分类笔记(上)

图像分类的任务,就是从已有的固定分类标签集合中选择一个并分配给一张图像。我们还介绍了k-Nearest Neighbor (k-NN)分类器,该分类器的基本思想...

781
来自专栏SnailTyan

Deformable Convolutional Networks论文翻译——中英文对照

Deformable Convolutional Networks Abstract Convolutional neural networks (CNNs) ...

2830
来自专栏机器学习算法与Python学习

线性分类器

线性分类 上一篇笔记介绍了图像分类问题。图像分类的任务,就是从已有的固定分类标签集合中选择一个并分配给一张图像。我们还介绍了k-Nearest Neighbor...

3619
来自专栏CVer

一文读懂卷积神经网络中的1x1卷积核

1. 卷积核(convolutional kernel):可以看作对某个局部的加权求和;它是对应局部感知,它的原理是在观察某个物体时我们既不能观察每个像素也不能...

2093
来自专栏深度学习与计算机视觉

Object Detection系列(五) R-FCN

Object Detection系列(一) R-CNN Object Detection系列(二) SPP-Net Object Detection系...

4576
来自专栏杂七杂八

K最近邻与线性分类器(下)

的系数),b为常数项,输出是10个数字,代表归属于不同的类。我们可以看下面的这个例子:假设一张图片由2*2的像素表示,共有三类,那上述公式的计算如下

1123
来自专栏计算机视觉战队

干货——线性分类(上)

图像分类的任务,就是从已有的固定分类标签集合中选择一个并分配给一张图像。我们还介绍了k-Nearest Neighbor (k-NN)分类器,该分类器的基本思想...

1122
来自专栏图像识别与深度学习

2018-04-21 语义分割Semantic segmentation

34710

扫码关注云+社区