前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >linear regression and logistic regression

linear regression and logistic regression

作者头像
西红柿炒鸡蛋
发布2018-09-11 15:41:29
7090
发布2018-09-11 15:41:29
举报
文章被收录于专栏:自学笔记

①linear regression

target function的推导

线性回归是一种做拟合的算法:

通过工资和年龄预测额度,这样就可以做拟合来预测了。有两个特征,那么就要求有两个参数了,设置

\theta_1,\theta_2
\theta_1,\theta_2

,对应工资和年龄两个字段的值。拟合的公式一般都是

s = wx + b
s = wx + b

,所以还缺一个

b
b

,所以还要设置一个

\theta_0
\theta_0

,所以决策函数就是

h_{\theta}(x) = \theta_0+\theta_1x_1+\theta_2x_2
h_{\theta}(x) = \theta_0+\theta_1x_1+\theta_2x_2

。这个决策函数的形式并不是推出来的,而是经验之举设置成这个形式的。可以设置多一个

x_0
x_0

,使得

x_0=1
x_0=1

,然后上式就可以变成

h_{\theta}(x) = \theta_0x_0+\theta_1x_1+\theta_2x_2
h_{\theta}(x) = \theta_0x_0+\theta_1x_1+\theta_2x_2

,整合一下,

h_{\theta}(x) = \sum_{i=0}^{i = 2}\theta_ix_i=\theta^Tx
h_{\theta}(x) = \sum_{i=0}^{i = 2}\theta_ix_i=\theta^Tx

误差 上面的

\theta_0
\theta_0

可以看做是一个误差,这个误差满足高斯分布,服从均值为0,方差为

\theta^2
\theta^2

的高斯分布,也就是高斯分布。因为求出来的拟合数值不是一定就准确的,肯定会有一些的误差。

一般误差不会太多,都是在0上下浮动的,所以0附近是最高的概率。 使用linear regression要满足三个条件: 1.独立,每一个样本点之间都要相互独立。 2.同分布,他们的银行是一样的,使用的算法是一样的。 3.误差都服从高斯分布。

由于误差是服从高斯分布的,自然有:

P(\theta_0)=\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{\theta_0^2}{2\sigma^2})
P(\theta_0)=\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{\theta_0^2}{2\sigma^2})

上述式子有:

y = \theta^Tx+\theta_0
y = \theta^Tx+\theta_0
P(\theta_0)=\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y_i-\theta^Tx_i)^2}{2\sigma^2})
P(\theta_0)=\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y_i-\theta^Tx_i)^2}{2\sigma^2})

需要求参数

\theta
\theta

,自然就是最大似然函数:

L(\theta)=\prod_{i=1}^m\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y_i-\theta^Tx_i)^2}{2\sigma^2})
L(\theta)=\prod_{i=1}^m\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y_i-\theta^Tx_i)^2}{2\sigma^2})

log化简:

logL(\theta) = log\prod_{i=1}^m\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y_i-\theta^Tx_i)^2}{2\sigma^2})
logL(\theta) = log\prod_{i=1}^m\frac{1}{\sqrt{2\pi}\sigma}exp(-\frac{(y_i-\theta^Tx_i)^2}{2\sigma^2})
=mlog\frac{1}{\sqrt{2\pi}\sigma}+\sum_{i=1}^m(-\frac{(y_i-\theta^Tx_i)^2}{2\sigma^2})
=mlog\frac{1}{\sqrt{2\pi}\sigma}+\sum_{i=1}^m(-\frac{(y_i-\theta^Tx_i)^2}{2\sigma^2})
=mlog\frac{1}{\sqrt{2\pi}\sigma}-\frac{1}{2\sigma^2}\sum_{i=1}^m(y_i-\theta^Tx_i)^2
=mlog\frac{1}{\sqrt{2\pi}\sigma}-\frac{1}{2\sigma^2}\sum_{i=1}^m(y_i-\theta^Tx_i)^2

最大化这个似然函数那就是最小化

\frac{1}{2\sigma^2}\sum_{i=1}^m(y_i-\theta^Tx_i)^2
\frac{1}{2\sigma^2}\sum_{i=1}^m(y_i-\theta^Tx_i)^2

。因为前面都是常数,可以忽略。而这个式子稍微变一下就是最小二乘法了。 最小二乘法:

f = \frac{1}{2}\sum_{i=1}^m(h_{\theta}(x_i)-y_i)^2
f = \frac{1}{2}\sum_{i=1}^m(h_{\theta}(x_i)-y_i)^2

,不用上面化简出来的式子非要加上

\frac{1}{2}
\frac{1}{2}

是因为求导之后2是可以和0.5抵消的。

目标函数的化简

化简一下:

J(\theta)=\frac{1}{2}\sum_{i=1}^m(h_{\theta}(x_i)-y_i)^2
J(\theta)=\frac{1}{2}\sum_{i=1}^m(h_{\theta}(x_i)-y_i)^2
=\frac{1}{2}(x\theta-y)^T(x\theta-y)
=\frac{1}{2}(x\theta-y)^T(x\theta-y)

求极小值,直接就是导数为0即可,所以对

\theta
\theta

求导数即可。

\bigtriangledown_{\theta}J(\theta) = \bigtriangledown_{\theta}(\frac{1}{2}(\theta^Tx^T-y^T)(x\theta-y))
\bigtriangledown_{\theta}J(\theta) = \bigtriangledown_{\theta}(\frac{1}{2}(\theta^Tx^T-y^T)(x\theta-y))
= \bigtriangledown_{\theta}\frac{1}{2}(\theta^Tx^Tx\theta-\theta^Tx^Ty-y^Tx\theta+y^Ty)
= \bigtriangledown_{\theta}\frac{1}{2}(\theta^Tx^Tx\theta-\theta^Tx^Ty-y^Tx\theta+y^Ty)
=x^Tx\theta-x^Ty
=x^Tx\theta-x^Ty

直接令等于0:

\theta = (x^Tx)^{-1}x^Ty
\theta = (x^Tx)^{-1}x^Ty

。 这样就是得到了最终的目标函数,一步就可以到达最终的optimal value。这就是linear regression。所以线性回归是有解析解的,直接一条公式就可以求出来的。注意上面的公式

J(\theta)=\frac{1}{2}\sum_{i=1}^m(h_{\theta}(x_i)-y_i)^2
J(\theta)=\frac{1}{2}\sum_{i=1}^m(h_{\theta}(x_i)-y_i)^2

\theta^Tx
\theta^Tx

是不包含bias偏置值,偏置项就是误差,代入高斯函数推导出来的。

②logistic regression

target function 的推导

首先要提一个函数,sigmoid函数:

f(x) = \frac{1}{1+e^{-z}}
f(x) = \frac{1}{1+e^{-z}}

这个函数之前被用来做神经网络的激活函数,但是它有一个缺点。

离原点处越远梯度就越趋近于0,在神经网络里面就会出现一个梯度消失的问题,所以后来就用relu或者tanh函数代替了。这个函数的值域是在

(0, 1)
(0, 1)

,所以sigmoid函数可以把一个值映射成一个概率,通过这个函数就可以做出一个概率,最后用过这个概率来区分类别。这里的决策函数还是和之前的一样

h(x) = \sum_{i=1}^m\theta_ix+\theta_0
h(x) = \sum_{i=1}^m\theta_ix+\theta_0

这样有点麻烦,可以把

\theta_0
\theta_0

合并到

h(x)
h(x)

,只需要在

x
x

中加多一列1就好了,所以函数可以简化

h(x) = \theta^Tx
h(x) = \theta^Tx

。这还是不是最终的决策函数,这只是一个值,只是一个得分,需要把这个得分转换成一个概率。所以最终的决策函数就是

h(x) = \frac{1}{1+e^{-\theta^Tx}}
h(x) = \frac{1}{1+e^{-\theta^Tx}}

。假设有两个类别

y=1,y=0
y=1,y=0

,那么可以假设属于

y=1
y=1

的类别就是

p(y=1|x;\theta) = h(x)
p(y=1|x;\theta) = h(x)

,属于

y=0
y=0

的类别就是

p(y=0|x;\theta) = 1-h(x)
p(y=0|x;\theta) = 1-h(x)

这样的两个的式子对于求导和化简都不好,所以合并一下:

P(y|x:\theta) = (h(x)^y)(1-h(x)^{1-y})
P(y|x:\theta) = (h(x)^y)(1-h(x)^{1-y})

因为y只有1和0,如果当前的分类是y,那么就是

h(x)
h(x)

的概率,不是就是另外一个。

目标函数的化简

最大似然函数,常规操作,给定了数据集找到符合这个数据集的分布一般也就是最大似然函数适合了。所以

L(\theta) = \prod_{i=1}^mP(y_i|x_i;\theta) = \prod_{i=1}^{m}(h(x_i)^{y_i}(1-h(x_i))^{1-y_i})
L(\theta) = \prod_{i=1}^mP(y_i|x_i;\theta) = \prod_{i=1}^{m}(h(x_i)^{y_i}(1-h(x_i))^{1-y_i})

log化:

l(\theta) = \sum_{i=1}^m(y_llogh(x_i)+(1-y_i)log(1-h(x_i)))
l(\theta) = \sum_{i=1}^m(y_llogh(x_i)+(1-y_i)log(1-h(x_i)))

所以梯度更新公式:

\theta_j = \theta_j - \alpha\frac{1}{m}\sum_{i=1}^m(h(x_i)-y_i)x_i^j
\theta_j = \theta_j - \alpha\frac{1}{m}\sum_{i=1}^m(h(x_i)-y_i)x_i^j

这个方法就梯度下降,问题来了,为什么要用梯度下降?为什么不可以直接等于0呢?

logistics regression没有解析解 如果等于0,就有:

\sum_{n=1}^Nsigmoid(\theta^Tx) = x^Ty
\sum_{n=1}^Nsigmoid(\theta^Tx) = x^Ty

考察一下两个特征两个样本的情况:

有三个不同的sigmoid函数,两个式子解不了,因为sigmoid函数不是线性的,如果是线性的,那么可以吧

\theta
\theta

提出来,这样就有解了。其实如果sigmoid去掉,仅仅把

sigmoid(\theta^Tx) = \theta^Tx
sigmoid(\theta^Tx) = \theta^Tx

那么就和linear regression一样了。所以是没有解析解的,主要的原因就是因为sigmoid函数是一个非线性的函数。

当标签不同的时候另一种函数形式

计算分数函数一样的:

score = W^Tx
score = W^Tx

之前了解的preceptron

直接把score分数通过一个sign函数即可。0/1错误。 linear regression:

线性回归就是去掉了sign函数,使其成为一个线性函数,error function = square logistic regression:

常规操作,就是要找到error function先。按照刚刚的函数分布可以得到:

极大似然函数:

sigmoid函数有一个比较牛逼的性质。

1-\frac{1}{1+e^{-x}}=\frac{e^{-x}}{1+e^{-x}}=\frac{1}{\frac{1}{e^{-x}}+1} = \frac{1}{1+e^x}
1-\frac{1}{1+e^{-x}}=\frac{e^{-x}}{1+e^{-x}}=\frac{1}{\frac{1}{e^{-x}}+1} = \frac{1}{1+e^x}
1-h(x) = h(-x)
1-h(x) = h(-x)

所以美滋滋,替换一下就OK了:

P(x_i)
P(x_i)

是先验概率,开始就给定的了,是可以忽略的。

最大值一般比较难求,加上负号变成一个最小化的问题,化简一下:

其实这个就是交叉熵函数,和上面推导出的:

是一个东西,整合起来了而已,负号提前,所以形式有点不一样。最小化error function:

gradient decent,和刚刚的方法是一样的。

上面的

\theta(yw^Tx)
\theta(yw^Tx)

可以看做是-yx的线性加权,要求就是加权和之后为0,而如果是线性可分的话,则只要

\theta
\theta

为0就可以了;根据sigmoid函数的特性,为0就相当于是

-yw^Tx
-yw^Tx

要 << 0,即

-yw^Tx
-yw^Tx

>> 0,这就尴尬了,需要保证全部的yx都同号,都是线性可分的,这样其实是很难做到的,所以我们转换一个思路,用梯度下降解决。归根到底,还是sigmoid函数的非线性。

Stochastic Gradient Descent

随机梯度下降,以往的经验是全部一起做一次更新,如果计算量非常大,那么计算复杂度很高,另外如果是做online learning的时候也不方便,因为这个时候数据不是一个betch的过来了,而是几个几个的了。

优点:简单,如果迭代次数够多的话是可以比得上average true gradient的效果的。 缺点:迭代的方向会不稳定,可能会左拐右拐的。average true gradient是查找的当前一阶导最适合的方向走的,而SGD是直接随机一个方向走。

他和PLA其实很像,而在理解上面其实也是类似,他们都选取一个点进行调整。而SGD ≈ soft PLA,PLA是错了之后才纠正,而SGD会看下你错了多少,错了越多,意味着你的wx越大,所以纠正的越多,是动态可变的,所以也叫做soft PLA。

③线性模型error function的对比

三个比较简单算法:PLA,linear regression,logistic regression。他们勇于分类的时候:

square function对于分类来说其实不太合理的,分类正确了,应该越远越好才对,但是square function是越远错误就越大,是不合理的,logistics就更合理了,错误的越错就越大正确的就小,所以linear regression适合回归而不是分类。 可以看到ce和err0/1是有焦点的,我们乘上一个数字使他相切:

根据VC bound的理论:

所有logistic regression是可以作为分类的,而且他的分类效果要比linear regression好,首先直观理解错误,他比linear regression更合理,其次,他的VC bound比linear regression要小,这就证明了Ein ≈ Eout的概率会更高,泛化能力更强。

④Nonlinear Transformation

对于线性可分的情况来说,几乎是不用对x做什么预处理就可以直接使用模型进行分类,但是如果是对于非线性的模型,上面的方法就有点吃力了,他们都是线性分类,直接在model上改进有点困难,所以在数据上进行处理。

这种是绝逼找不到一条直线分开的,要完成这种任务就需要找一个非线性的模型分开,比如看起来这就像是一个圆:

h(x) = -x_1^2-x_2^2+0.6
h(x) = -x_1^2-x_2^2+0.6

把上面的式子变成我们认识的形式:

w_1 = -1,w_2=-2,w_0=0.6
w_1 = -1,w_2=-2,w_0=0.6

于是决策函数:

h(x) = sign(w_1z_1+w_2z_2+z_0)
h(x) = sign(w_1z_1+w_2z_2+z_0)

其实就是把x空间映射到了z空间,然后再z空间解决。x里面是nonlinear的,映射到z可能就会是linear的了,低纬度解决不了的问题拉到高维度解决:

支持向量机也用到了这种思想,核函数就是映射到高维度空间里面然后进行切片操作。 Nolinear Transformation的方法不止一个:

目前我们所讨论的都是过原点的,如果是不过原点的话,那么他们的VC dimension就会增加。比如这种

f(x) = (1,x_1^2,x_2^2,x_1x_2,x_1,x_2)
f(x) = (1,x_1^2,x_2^2,x_1x_2,x_1,x_2)

其实,做法很简单,利用映射变换的思想,通过映射关系,把x域中的最高阶二次的多项式转换为z域中的一次向量,也就是从quardratic hypothesis转换成了perceptrons问题。用z值代替x多项式,其中向量z的个数与x域中x多项式的个数一致(包含常数项)。这样就可以在z域中利用线性分类模型进行分类训练。训练好的线性模型之后,再将z替换为x的多项式就可以了。具体过程如下:

整个过程就是通过映射关系,换个空间去做线性分类,重点包括两个: 特征转换 训练线性模型

Price of Nonlinear Transform

首先,用十二指肠想都知道:

d_{vc}^{nonlinear} >=d_{vc}^{linear}
d_{vc}^{nonlinear} >=d_{vc}^{linear}

如果是d维的x做二次的扩展,那么有

求上界,如果阶数更高,假如阶数为Q,对于x是d维,那么对于z空间就是

这种特征变换会导致计算空间变大,计算复杂度变大。另外,可以看到随着Q增大,W也会增大,这样就导致了VC dimension会增大,而W的秩其实就是VC维,所以,如果Q越大,就会导致泛化能力变差。

接下来讨论一下x到z多项式的变换: 一维:

f_0(x) = (1)
f_0(x) = (1)

二维:

f_1(x) = (f_0(x),x_1,x_2,...x_d)
f_1(x) = (f_0(x),x_1,x_2,...x_d)

三维:

f_2(x) = (f_1(x),x_1^2,x_1x_2,...x_d^2)
f_2(x) = (f_1(x),x_1^2,x_1x_2,...x_d^2)

Q维:

f_Q(x) = (f_{Q-1}(x),x_1^Q,x_1^{Q-1}x_2,...x_d^Q)
f_Q(x) = (f_{Q-1}(x),x_1^Q,x_1^{Q-1}x_2,...x_d^Q)

所以这些hypothesis是包含关系的:

对应上图:

d_{vc}(H_1) <= d_{vc}(H_2) <= d_{vc}(H_d)
d_{vc}(H_1) <= d_{vc}(H_2) <= d_{vc}(H_d)

所以一目了然,代价就是

E_{out},E_{in}
E_{out},E_{in}

之间的差距会越来越大,

E_{in}
E_{in}

最后就不能再代表

E_{out}
E_{out}

了。随着变换多项式的阶数增大,虽然逐渐减小,但是model complexity会逐渐增大,造成很大,所以阶数不能太高。如果选择的阶数很大,确实能使接近于0,但是泛化能力通常很差,我们把这种情况叫做tempting sin。所以,一般最合适的做法是先从低阶开始,如先选择一阶hypothesis,看看是否很小,如果足够小的话就选择一阶,如果大的话,再逐渐增加阶数,直到满足要求为止。也就是说,尽量选择低阶的hypothes,这样才能得到较强的泛化能力。模型复杂度越高出现的泛化能力问题,就是过拟合,在训练数据上表现很好,Ein = 0,但是在测试数据上就很差,Ein << Eout。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018.08.23 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • ①linear regression
    • target function的推导
      • 目标函数的化简
      • ②logistic regression
        • target function 的推导
          • 目标函数的化简
            • 当标签不同的时候另一种函数形式
              • Stochastic Gradient Descent
              • ③线性模型error function的对比
              • ④Nonlinear Transformation
                • Price of Nonlinear Transform
                领券
                问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档