前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习中的常见问题——损失函数

机器学习中的常见问题——损失函数

作者头像
felixzhao
发布2019-01-31 16:59:59
1K0
发布2019-01-31 16:59:59
举报
文章被收录于专栏:null的专栏null的专栏

一、分类算法中的损失函数

在分类算法中,损失函数通常可以表示成损失项和正则项的和,即有如下的形式:

J(w)=∑iL(mi(w))+λR(w)

J\left ( \mathbf{w} \right )=\sum_{i}L\left ( m_i\left (\mathbf{ w} \right ) \right )+\lambda R\left ( \mathbf{w} \right )

其中,L(mi(w))L\left ( m_i\left (\mathbf{ w} \right ) \right )为损失项,R(w)R\left ( \mathbf{w} \right )为正则项。mim_i的具体形式如下:

mi=y(i)fw(x(i))

m_i=y^{\left ( i \right )}f_\mathbf{w}\left ( \mathbf{x}^{\left ( i \right )} \right )

y(i)∈{−1,1}

y^{\left ( i \right )}\in \left \{ -1,\;1 \right \}

fw(x(i))=wTx(i)

f_\mathbf{w}\left ( \mathbf{x}^{\left ( i \right )} \right )=\mathbf{w}^T\mathbf{x}^{(i)}

对于损失项,主要的形式有:

  • 0-1损失
  • Log损失
  • Hinge损失
  • 指数损失
  • 感知损失

1、0-1损失函数

在分类问题中,可以使用函数的正负号来进行模式判断,函数值本身的大小并不是很重要,0-1损失函数比较的是预测值fw(x(i))f_\mathbf{w}\left ( \mathbf{x}^{\left ( i \right )} \right )与真实值y(i)y^{\left ( i \right )}的符号是否相同,0-1损失的具体形式如下:

L01(m)={01 if m⩾0 if m<0

L_{01}\left ( m \right )=\begin{cases} 0 & \text{ if } m\geqslant 0 \\ 1 & \text{ if } m< 0 \end{cases}

以上的函数等价于下述的函数:

12(1−sign(m))

\frac{1}{2}\left ( 1-sign\left ( m \right ) \right )

0-1损失并不依赖mm值的大小,只取决于mm的正负号。0-1损失是一个非凸的函数,在求解的过程中,存在很多的不足,通常在实际的使用中将0-1损失函数作为一个标准,选择0-1损失函数的代理函数作为损失函数。

2、Log损失函数

2.1、Log损失

Log损失是0-1损失函数的一种代理函数,Log损失的具体形式如下:

log(1+exp(−m))

log\left ( 1+exp\left ( -m \right ) \right )

运用Log损失的典型分类器是Logistic回归算法。

2.2、Logistic回归算法的损失函数

对于Logistic回归算法,分类器可以表示为:

p(y∣x;w)=σ(wTx)y(1−σ(wTx))(1−y)

p\left ( y\mid \mathbf{x}; \mathbf{w} \right )=\sigma \left ( \mathbf{w}^T\mathbf{x} \right )^y\left ( 1-\sigma \left ( \mathbf{w}^T\mathbf{x} \right ) \right )^{\left ( 1-y \right )}

其中,y∈{0,1}y\in \left \{ 0,1 \right \}。为了求解其中的参数w \mathbf{w},通常使用极大似然估计的方法,具体的过程如下:

1、似然函数

L(w)=∏i=1nσ(wTx(i))y(i)(1−σ(wTx(i)))(1−y(i))

L\left ( \mathbf{w} \right )=\prod_{i=1}^{n}\sigma \left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )} \right )^{y^{\left ( i \right )}}\left ( 1-\sigma \left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )} \right ) \right )^{\left ( 1-y^{\left ( i \right )} \right )}

其中,

σ(x)=11+exp(−x)

\sigma \left ( x \right )=\frac{1}{1+exp\left ( -x \right )}

2、log似然

logL(w)=∑i=1ny(i)log(σ(wTx(i)))+(1−y(i))log(1−σ(wTx(i)))

logL\left ( \mathbf{w} \right )=\sum_{i=1}^{n}y^{\left ( i \right )}log\left ( \sigma \left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )} \right ) \right )+\left ( 1-y^{\left ( i \right )} \right )log\left ( 1-\sigma \left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )} \right )\right )

3、需要求解的是使得log似然取得最大值的w \mathbf{w},可以转换为求最小值:

−logL(w)=−∑i=1ny(i)log(σ(wTx(i)))+(1−y(i))log(1−σ(wTx(i)))

-logL\left ( \mathbf{w} \right )=-\sum_{i=1}^{n}y^{\left ( i \right )}log\left ( \sigma \left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )} \right ) \right )+\left ( 1-y^{\left ( i \right )} \right )log\left ( 1-\sigma \left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )} \right )\right )

这便是交叉熵的具体形式。

2.3、两者的等价

由于Log损失的具体形式为:

log(1+exp(−m))

log\left ( 1+exp\left ( -m \right ) \right )

其中,m=y(i)wTx(i)m=y^{\left ( i \right )}\mathbf{w}^T\mathbf{x}^{\left ( i \right )},y(i)∈{−1,1}y^{\left ( i \right )}\in \left \{ -1,1 \right \},Log损失函数的具体形式为:

minw∑i=1nlog{1+exp(−y(i)wTx(i))}

\underset{\mathbf{w}}{min}\sum_{i=1}^{n}log\left \{ 1+exp\left ( -y^{\left ( i \right )}\mathbf{w}^T\mathbf{x}^{\left ( i \right )} \right ) \right \}

Logistic回归与Log损失具有相同的形式,故两者是等价的。Log损失与0-1损失的关系可见下图。

3、Hinge损失函数

3.1、Hinge损失

Hinge损失是0-1损失函数的一种代理函数,Hinge损失的具体形式如下:

max(0,1−m)

max\left ( 0,1-m \right )

运用Hinge损失的典型分类器是SVM算法。

3.2、SVM的损失函数

对于软间隔支持向量机,允许在间隔的计算中出现少许的误差ξ⃗ =(ξ1,⋯,ξn)\vec{\xi }=\left ( \xi _1,\cdots ,\xi _n \right ),其优化的目标为:

minw,γ,ξ[12∥w∥2+C∑i=1nξi]

\underset{\mathbf{w},\gamma ,\xi }{min}\left [ \frac{1}{2}\left \| \mathbf{w} \right \|^2+C\sum_{i=1}^{n}\xi _i \right ]

约束条件为:

(wTx(i)+γ)y(i)⩾1−ξi,ξi≥0

\left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )}+\gamma \right )y^{\left ( i \right )}\geqslant 1-\xi _i,\; \xi _i\geq 0

3.3、两者的等价

对于Hinge损失:

max(0,1−m)

max\left ( 0,1-m \right )

优化的目标是要求:

minw[∑i=1nmax(0,1−fw(x(i))y(i))]

\underset{\mathbf{w}}{min}\; \left [ \sum_{i=1}^{n}max\left ( 0,1-f_\mathbf{w}\left ( \mathbf{x}^{\left ( i \right )} \right )y^{\left ( i \right )} \right ) \right ]

在上述的函数fw(x(i))f_\mathbf{w}\left ( \mathbf{x}^{\left ( i \right )} \right )中引入截距γ\gamma ,即:

fw,γ(x(i))=wTx(i)+γ

f_{\mathbf{w},\gamma }\left ( \mathbf{x}^{\left ( i \right )} \right )=\mathbf{w}^T\mathbf{x}^{\left ( i \right )}+\gamma

并在上述的最优化问题中增加L2L_2正则,即变成:

minw,γ[C∑i=1nmax(0,1−fw,γ(x(i))y(i))+12∥w∥2]

\underset{\mathbf{w},\gamma }{min}\; \left [ C\sum_{i=1}^{n}max\left ( 0,1-f_{\mathbf{w},\gamma }\left ( \mathbf{x}^{\left ( i \right )} \right )y^{\left ( i \right )} \right )+\frac{1}{2}\left \| \mathbf{w} \right \|^2 \right ]

至此,令下面的不等式成立:

max(0,1−fw,γ(x)y)=minξξ

max\left ( 0,1-f_{\mathbf{w},\gamma }\left ( \mathbf{x} \right )y \right )=\underset{\xi }{min}\xi

约束条件为:

ξ⩾1−fw,γ(x)y;ξ⩾0

\xi \geqslant 1-f_{\mathbf{w},\gamma }\left ( \mathbf{x} \right )y;\xi \geqslant 0

则Hinge最小化问题变成:

minw,γ,ξ[C∑i=1nξi+12∥w∥2]

\underset{\mathbf{w},\gamma ,\xi }{min}\; \left [ C\sum_{i=1}^{n}\xi _i+\frac{1}{2}\left \| \mathbf{w} \right \|^2 \right ]

约束条件为:

ξi⩾1−(wTx(i)+γ)y(i);ξi⩾0

\xi _i\geqslant 1-\left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )}+\gamma \right )y^{\left ( i \right )};\xi _i\geqslant 0

这与软间隔的SVM是一致的,说明软间隔SVM是在Hinge损失的基础上增加了L2L_2正则。

4、指数损失

4.1、指数损失

指数损失是0-1损失函数的一种代理函数,指数损失的具体形式如下:

exp(−m)

exp\left ( -m \right )

运用指数损失的典型分类器是AdaBoost算法。

4.2、AdaBoost基本原理

AdaBoost算法是对每一个弱分类器以及每一个样本都分配了权重,对于弱分类器φj\varphi _j的权重为:

θj=12log1−R(φj)R(φj)

\theta _j=\frac{1}{2}log\frac{1-R\left ( \varphi _j \right )}{R\left ( \varphi _j \right )}

其中,R(φj)R\left ( \varphi _j \right )表示的是误分类率。对于每一个样本的权重为:

wi=exp(−f(x(i)y(i)))∑n[exp(−f(x(i)y(i)))]

w_i=\frac{exp\left ( -f\left ( x^{\left ( i \right )}y^{\left ( i \right )} \right ) \right )}{\sum_{n}\left [ exp\left ( -f\left ( x^{\left ( i \right )}y^{\left ( i \right )} \right ) \right ) \right ]}

最终通过对所有分类器加权得到最终的输出。

4.3、两者的等价

对于指数损失函数:

exp(−m)

exp\left ( -m \right )

可以得到需要优化的损失函数:

minθ[∑i=1nexp(−fθ(x(i))y(i))]

\underset{\mathbf{\theta }}{min}\; \left [ \sum_{i=1}^{n}exp\left ( -f_\mathbf{\theta }\left ( \mathbf{x}^{\left ( i \right )} \right )y^{\left ( i \right )} \right ) \right ]

假设f~\tilde{f}表示已经学习好的函数,则有:

minθ,φ[∑i=1nexp(−{f~θ(x(i))+θφ(x(i))}y(i))]

\underset{\mathbf{\theta },\varphi }{min}\; \left [ \sum_{i=1}^{n}exp\left ( -\left \{ \tilde{f}_\mathbf{\theta }\left ( \mathbf{x}^{\left ( i \right )} \right )+\theta \varphi \left ( \mathbf{x}^{\left ( i \right )} \right ) \right \}y^{\left ( i \right )} \right ) \right ]

=minθ,φ[∑i=1nwi~exp(−θφ(x(i))y(i))]

=\underset{\mathbf{\theta },\varphi }{min}\; \left [ \sum_{i=1}^{n}\tilde{w_i}exp\left ( -\theta \varphi \left ( \mathbf{x}^{\left ( i \right )} \right ) y^{\left ( i \right )} \right ) \right ]

而:

∑i=1nwi~exp(−θφ(x(i))y(i))={exp(θ)−exp(−θ)}∑i=1nwi~2(1−φ(x(i))y(i))+exp(−θ)∑i=1nwi~

\sum_{i=1}^{n}\tilde{w_i}exp\left ( -\theta \varphi \left ( \mathbf{x}^{\left ( i \right )} \right ) y^{\left ( i \right )} \right )\\ =\left \{ exp\left ( \theta \right ) - exp\left ( -\theta \right ) \right \}\sum_{i=1}^{n}\frac{\tilde{w_i}}{2}\left ( 1-\varphi \left ( \mathbf{x}^{\left ( i \right )} \right ) y^{\left ( i \right )} \right )+exp\left ( -\theta \right )\sum_{i=1}^{n}\tilde{w_i}

通过最小化φ\varphi ,可以得到:

φ^=argminφ∑i=1nw~i2(1−φ(x(i))y(i))

\hat{\varphi }=\underset{\varphi }{argmin}\sum_{i=1}^{n}\frac{\tilde{w}_i}{2}\left ( 1-\varphi \left ( \mathbf{x}^{\left ( i \right )} \right ) y^{\left ( i \right )} \right )

将其代入上式,进而对θ\theta 求最优解,得:

θ^=12log1−R^R^

\hat{\theta }=\frac{1}{2}log\frac{1-\hat{R}}{\hat{R}}

其中,

R^={∑i=1nw~i2(1−φ(x(i))y(i))}/{∑i=1nw~i}

\hat{R}=\left \{ \sum_{i=1}^{n}\frac{\tilde{w}_i}{2}\left ( 1-\varphi \left ( \mathbf{x}^{\left ( i \right )} \right ) y^{\left ( i \right )} \right ) \right \}/\left \{ \sum_{i=1}^{n}\tilde{w}_i \right \}

可以发现,其与AdaBoost是等价的。

5、感知损失

5.1、感知损失

感知损失是Hinge损失的一个变种,感知损失的具体形式如下:

max(0,−m)

max\left ( 0,\; -m \right )

运用感知损失的典型分类器是感知机算法。

5.2、感知机算法的损失函数

感知机算法只需要对每个样本判断其是否分类正确,只记录分类错误的样本,其损失函数为:

minw,b[−∑i=1ny(i)(wTx(i)+b)]

\underset{\mathbf{w},\mathbf{b}}{min}\left [ -\sum_{i=1}^{n}y^{\left ( i \right )}\left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )} + \mathbf{b}\right ) \right ]

5.3、两者的等价

对于感知损失:

max(0,−m)

max\left ( 0,\; -m \right )

优化的目标为:

minw[∑i=1nmax(0,−fw(x(i))y(i))]

\underset{\mathbf{w}}{min}\; \left [ \sum_{i=1}^{n}max\left ( 0,-f_\mathbf{w}\left ( \mathbf{x}^{\left ( i \right )} \right )y^{\left ( i \right )} \right ) \right ]

在上述的函数fw(x(i))f_\mathbf{w}\left ( \mathbf{x}^{\left ( i \right )} \right )中引入截距b\mathbf{b},即:

fw,γ(x(i))=wTx(i)+b

f_{\mathbf{w},\gamma }\left ( \mathbf{x}^{\left ( i \right )} \right )=\mathbf{w}^T\mathbf{x}^{\left ( i \right )}+\mathbf{b}

上述的形式转变为:

minw,b[∑i=1nmax(0,−(wTx(i)+b)y(i))]

\underset{\mathbf{w},\mathbf{b}}{min}\; \left [ \sum_{i=1}^{n}max\left ( 0,-\left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )}+\mathbf{b} \right )y^{\left ( i \right )} \right ) \right ]

对于max函数中的内容,可知:

max(0,−(wTx(i)+b)y(i))⩾0

max\left ( 0,-\left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )}+\mathbf{b} \right )y^{\left ( i \right )} \right )\geqslant 0

对于错误的样本,有:

max(0,−(wTx(i)+b)y(i))=−(wTx(i)+b)y(i)

max\left ( 0,-\left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )}+\mathbf{b} \right )y^{\left ( i \right )} \right )= -\left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )}+\mathbf{b} \right )y^{\left ( i \right )}

类似于Hinge损失,令下式成立:

max(0,−fw,b(x)y)=minξξ

max\left ( 0,-f_{\mathbf{w},\mathbf{b} }\left ( \mathbf{x} \right )y \right )=\underset{\xi }{min}\xi

约束条件为:

ξ⩾−fw,b(x)y

\xi \geqslant -f_{\mathbf{w},\mathbf{b} }\left ( \mathbf{x} \right )y

则感知损失变成:

minξ[∑i=1nξi]

\underset{\xi }{min}\; \left [ \sum_{i=1}^{n}\xi _i\right ]

即为:

minw,b[−∑i=1ny(i)(wTx(i)+b)]

\underset{\mathbf{w},\mathbf{b}}{min}\left [ -\sum_{i=1}^{n}y^{\left ( i \right )}\left ( \mathbf{w}^T\mathbf{x}^{\left ( i \right )} + \mathbf{b}\right ) \right ]

Hinge损失对于判定边界附近的点的惩罚力度较高,而感知损失只要样本的类别判定正确即可,而不需要其离判定边界的距离,这样的变化使得其比Hinge损失简单,但是泛化能力没有Hinge损失强。

这里写图片描述
这里写图片描述
代码语言:javascript
复制
import matplotlib.pyplot as plt
import numpy as np

xmin, xmax = -4, 4
xx = np.linspace(xmin, xmax, 100)
plt.plot([xmin, 0, 0, xmax], [1, 1, 0, 0], 'k-', label="Zero-one loss")
plt.plot(xx, np.where(xx < 1, 1 - xx, 0), 'g-', label="Hinge loss")
plt.plot(xx, np.log2(1 + np.exp(-xx)), 'r-', label="Log loss")
plt.plot(xx, np.exp(-xx), 'c-', label="Exponential loss")
plt.plot(xx, -np.minimum(xx, 0), 'm-', label="Perceptron loss")

plt.ylim((0, 8))
plt.legend(loc="upper right")
plt.xlabel(r"Decision function $f(x)$")
plt.ylabel("$L(y, f(x))$")
plt.show()

参考文章

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016年03月31日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 一、分类算法中的损失函数
    • 1、0-1损失函数
      • 2、Log损失函数
        • 2.1、Log损失
        • 2.2、Logistic回归算法的损失函数
        • 2.3、两者的等价
      • 3、Hinge损失函数
        • 3.1、Hinge损失
        • 3.2、SVM的损失函数
        • 3.3、两者的等价
      • 4、指数损失
        • 4.1、指数损失
        • 4.2、AdaBoost基本原理
        • 4.3、两者的等价
      • 5、感知损失
        • 5.1、感知损失
        • 5.2、感知机算法的损失函数
        • 5.3、两者的等价
    • 参考文章
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档