前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >文本分类学习 (八)SVM 入门之线性分类器

文本分类学习 (八)SVM 入门之线性分类器

作者头像
ShenduCC
发布2018-08-01 15:17:50
1.1K0
发布2018-08-01 15:17:50
举报
文章被收录于专栏:算法修养

SVM 和线性分类器是分不开的。因为SVM的核心:高维空间中,在线性可分(如果线性不可分那么就使用核函数转换为更高维从而变的线性可分)的数据集中寻找一个最优的超平面将数据集分隔开来。

所以要理解SVM首先要明白的就是线性可分和线性分类器。

可以先解释这张图,通过这张图就可以了解线性分类器了。

这是一个在二维平面的图。其中实心点和空心点是分别属于两类的,Origin 是原点。

先看中间那条直线,中间的直线就是一条可以实心点和空心点分隔开来的直线,所以上图中的数据点是线性可分的。

这条直线其实就是线性分类器,也可以叫做分类函数,在直线上方的属于+1类,在直线下方的属于-1类。+1,-1这里只是区分类别。

所以该直线就是我们上面说的超平面,在二维空间中它是一条直线,三维空间是一个平面。。。等等,下面就统称为超平面

这个超平面上的点都满足

            (1)

这里需要解释一下:

  • x 在二维平面中不是指横坐标值,而是指二维平面中点的向量,在文本分类中就是文本的向量表示。所以 x  = ( xi , yi ) 
  • w 也是一个向量 它是一个垂直于超平面的向量,如图中所示
  • 该表达式不只是表示二维空间,也可以表示n维空间的超平面
  • b 是一个常数
  • w * x 是求两个向量的点积也就是内积,实际上应该写成w * xT w乘以x的转置向量,w是横向量,x是列向量。

所以二维平面中,该表达式也可以表示为:

    (2)

继续上图的解释,其中原点到超平面的距离为  

这个可以很容易推导出来,以二维平面为例,上述表达式可以这么转换

根据点到直线的距离公式:

             (3)

计算这个公式是为了方便我们下面计算得到几何间隔。

这里 || w || 叫做 向量 w 的 欧几里得范式,p维的向量w的范式: 

实际上是对向量长度的一种度量。

以上是在线性分类器中的一些要素:包括n维空间中的一些个点,和把这些点分开的一个超平面

下面是在SVM中对线性分类器不同的地方,在SVM中我们还要找到以下两条直线H1, H2 (上图已经是线性可分的最优分类线)

H1  和 H2 它们平行于超平面,在H1 上的点满足:

        (4)

在H2 上的点满足:

        (5)

所以在图中我们可以看到空心点 都满足 

   (6)

实心点都满足

     (7)

所以我们可以把上面连个式子写成一个不等式:

        (8)

这个不等式就是图中所有数据点要满足的条件,也是最优分类函数求出来的条件。

这里还要提醒一下,xi 不是横坐标而是一个n维向量,yi 不是纵坐标而是一个分类标签,只有+1 和 -1。

上面计算过原点到超平面的距离,以此类推,H1 到原点的距离 =  |-1-b| / || w || ; H2 到原点的距离 = | 1 - b | / || w ||

那么H1 到超平面的距离就是 | b| / || w ||  -  |-1-b| / || w ||  = 1 / ||w|| 同理H2到超平面的距离也是 1/ ||w||

H1 和H2 之间的距离为:2 / ||w|| 。这个距离称作为几何间隔。

SVM 的工作是在n维空间中找到这两个超平面:H1 和H2 使得点都分布在H1 和H2 的两侧,并且使H1 和H2 之间的几何间隔最大,这是H1 和H2 就是支持向量

为什么呢?因为几何间隔与样本的误分次数间存在关系, 几何间隔越大误分次数的上界就越小。

这个1/||w|| 也可以通过上面的不等式(8)推导出来,把不等式(8)左边和右边同时除以 || w ||

就可以得到:

         (9)

 根据(6),(7)实际上yi 只是一个正负号,相当于取绝对值,因为wxi+b<=-1的时候yi就是-1,结果还是正数,所以(9)可以变成:

    (10)

不等式左边表示的就是点到超平面wx+b=0的距离,该式子表示,所有点到超平面wx+b=0的距离都大于1/||w|| 。从图中看也正是如此。

所以我们接下来的工作就是最大化几何间隔,事实上也就是求||w||的最小值。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018-05-31 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档