前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >关于SVM,面试官们都怎么问

关于SVM,面试官们都怎么问

作者头像
NewBeeNLP
发布2020-08-26 16:51:36
1.1K0
发布2020-08-26 16:51:36
举报
文章被收录于专栏:NewBeeNLP

作者 | WEIWEI

整理 | NewBeeNLP

写在前面

持续准备面试中。。。准备的过程中,慢慢发现,如果死记硬背的话很难,可当推导一遍并且细细研究里面的缘由的话,面试起来应该什么都不怕,问什么问题都可以由公式推导得到结论,不管问什么,公式摆在那里,影响这个公式的变量就在那,你问什么我答什么。。共勉!!

一、SVM简介

SVM 是一种二类分类模型。它的基本思想是在特征空间中寻找间隔最大的分离超平面使数据得到高效的二分类,具体来讲,有三种情况(不加核函数的话就是个线性模型,加了之后才会升级为一个非线性模型):

  • 当训练样本线性可分时,通过硬间隔最大化,学习一个线性分类器,即线性可分支持向量机;
  • 当训练数据近似线性可分时,引入松弛变量,通过软间隔最大化,学习一个线性分类器,即线性支持向量机;
  • 当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机。

二、SVM 为什么采用间隔最大化(与感知机的区别)

当训练数据线性可分时,存在无穷个分离超平面可以将两类数据正确分开。感知机利用误分类最小策略,求得分离超平面,不过此时的解有无穷多个。线性可分支持向量机利用间隔最大化求得最优分离超平面,这时,解是唯一的。另一方面,此时的分隔超平面所产生的分类结果是最鲁棒的,对未知实例的泛化能力最强。

三、SVM的目标(硬间隔)

有两个目标:

  • 第一个是使间隔最大化,
\min _{\mathbf{w}, b} \frac{1}{2}\|\mathbf{w}\|^{2}
  • 第二个是使样本正确分类,
y_{i}\left(\mathbf{w}^{T} \mathbf{x}_{i}+b\right) \geq 1, i=1,2, \ldots, m

稍微解释一下,

w

是超平面参数,目标一是从点到面的距离公式化简来的,具体不展开,目标二就相当于感知机,只是把大于等于0进行缩放变成了大于等于1,为了后面的推导方便。有了两个目标,写在一起,就变成了svm的终极目标:

\begin{array}{c} \min _{w, b} \frac{1}{2}\|w\|^{2} \\ \text { s.t. } y_{i}\left(w^{T} x_{i}+b\right) \geq 1, \forall i \end{array}

四、求解目标(硬间隔)

从上面的公式看出,这是一个有约束条件的最优化问题,用拉格朗日函数来解决。

上式的拉格朗日函数为:

\begin{aligned} \min _{w, b} \max _{\alpha} L(\omega, b, \alpha) &=\frac{1}{2}\|\omega\|^{2}+\sum_{i=1}^{m} \alpha_{i}\left(1-y_{i}\left(\omega^{T} x_{i}+b\right)\right) \\ & \text { s.t. } \alpha_{i} \geq 0, \forall i \end{aligned}

在满足Slater定理的时候,且过程满足KKT条件的时候,原问题转换成对偶问题:

\begin{aligned} \max _{\alpha} \min _{w, b} L(\omega, b, \alpha) &=\frac{1}{2}\|\omega\|^{2}+\sum_{i=1}^{m} \alpha_{i}\left(1-y_{i}\left(\omega^{T} x_{i}+b\right)\right) \\ & \text { s.t. } \alpha_{i} \geq 0, \forall i \end{aligned}

先求内部最小值,对

w

b

求偏导并令其等于0可得:

\begin{array}{c} w=\sum_{i=1}^{m} \alpha_{i} y_{i} x_{i} \\ 0=\sum_{i=1}^{m} \alpha_{i} y_{i} \end{array}

将其代入到上式中去可得到

\begin{aligned} \max _{\alpha} L(\omega, b, \alpha)=& \sum_{i=1}^{m} \alpha_{i}-\frac{1}{2} \sum_{i=1}^{m} \sum_{j=1}^{m} \alpha_{i} \alpha_{j} y_{i} y_{j} x_{i}^{T} x_{j} \\ & \text { s.t. } \sum_{i=1}^{m} \alpha_{i} y_{i}=0\left(\alpha_{i} \geq 0, i=1,2, \ldots, m\right) \end{aligned}

此时需要求解

\alpha

,利用SMO(序列最小优化)算法:

SMO算法的基本思路是每次选择两个变量

\alpha_{i}

\alpha_{j}

,选取的两个变量所对应的样本之间间隔要尽可能大,因为这样更新会带给目标函数值更大的变化。SMO算法之所以高效,是因为仅优化两个参数的过程实际上仅有一个约束条件,其中一个可由另一个表示,这样的二次规划问题具有闭式解。

五、软间隔

不管直接在原特征空间,还是在映射的高维空间,我们都假设样本是线性可分的。虽然理论上我们总能找到一个高维映射使数据线性可分,但在实际任务中,寻找一个合适的核函数核很困难。此外,由于数据通常有噪声存在,一味追求数据线性可分可能会使模型陷入过拟合,因此,我们放宽对样本的要求,允许少量样本分类错误。这样的想法就意味着对目标函数的改变,之前推导的目标函数里不允许任何错误,并且让间隔最大,现在给之前的目标函数加上一个误差,就相当于允许原先的目标出错,引入松弛变量

\xi_{i} \geq 0

,公式变为:

\min _{w, b, \xi} \frac{1}{2}\|w\|^{2}+\sum_{i=1}^{n} \xi_{i}

那么这个松弛变量怎么计算呢,最开始试图用0,1损失去计算,但0,1损失函数并不连续,求最值时求导的时候不好求,所以引入合页损失(hinge loss):

l_{\text {hinge}}(z)=\max (0,1-z)

函数图长这样:

理解起来就是,原先制约条件是保证所有样本分类正确,

y_{i}\left(w^{T} x_{i}+b\right) \geq 1, \forall i

,现在出现错误的时候,一定是这个式子不被满足了,即

y_{i}\left(w^{T} x_{i}+b\right)<1, \forall i_{错误}

,衡量一下错了多少呢?因为左边一定小于1,那就跟1比较,因为1是边界,所以用1减去

y_{i}\left(w^{T} x_{i}+b\right)

来衡量错误了多少,所以目标变为(正确分类的话损失为0,错误的话付出代价):

\min _{w, b} \frac{1}{2}\|w\|^{2}+\sum_{i=1}^{n} \max \left(0,1-y_{i}\left(w^{T} x_{i}+b\right)\right)

但这个代价需要一个控制的因子,引入C>0,惩罚参数,即:

\min _{w, b} \frac{1}{2}\|w\|^{2}+C \sum_{i=1}^{n} \max \left(0,1-y_{i}\left(w^{T} x_{i}+b\right)\right)

可以想象,C越大说明把错误放的越大,说明对错误的容忍度就小,反之亦然。当C无穷大时,就变成一点错误都不能容忍,即变成硬间隔。实际应用时我们要合理选取C,C越小越容易欠拟合,C越大越容易过拟合。

所以软间隔的目标函数为:

\begin{array}{c} \min _{w, b, \xi} \frac{1}{2}\|w\|^{2}+C \sum_{i=1}^{n} \xi_{i} \\ \text { s.t. } y_{i}\left(x_{i}^{T} w+b\right) \geq 1-\xi_{i} \\ \xi_{i} \geq 0, i=1,2, \dots n \end{array}

其中:

\xi_{i}=\max \left(0,1-y_{i}\left(w^{T} x_{i}+b\right)\right)

六、软间隔求解

与硬间隔类似:

上式的拉格朗日函数为:

\begin{aligned} \min _{\boldsymbol{w}, b, \boldsymbol{\xi}} \max _{\boldsymbol{\alpha}, \beta} L(\omega, b, \alpha, \xi, \beta)=& \frac{1}{2}\|\omega\|^{2}+C \sum_{i=1}^{n} \xi_{i}+\sum_{i=1}^{m} \alpha_{i}\left(1-y_{i}\left(\omega^{T} x_{i}+b\right)-\xi_{i}\right)-\sum_{i=1}^{n} \beta_{i} \xi_{i} \\ & s . t . \alpha_{i} \geq 0且\beta_{i} \geq 0, \forall i \end{aligned}

在满足Slater定理的时候,且过程满足KKT条件的时候,原问题转换成对偶问题:

\begin{aligned} \max _{\alpha, \beta} \min _{w, b, \xi} L(\omega, b, \alpha, \xi, \beta)=\frac{1}{2}\|\omega\|^{2}+& C \sum_{i=1}^{n} \xi_{i}+\sum_{i=1}^{m} \alpha_{i}\left(1-y_{i}\left(\omega^{T} x_{i}+b\right)-\xi_{i}\right)-\sum_{i=1}^{n} \beta_{i} \xi_{i} \\ & s . t . \alpha_{i} \geq 0且\beta_{i} \geq 0, \forall i \end{aligned}

先求内部最小值,对

\omega

,

b

\xi

求偏导并令其等于

0

可得:

\begin{array}{c} w=\sum_{i=1}^{m} \alpha_{i} y_{i} x_{i} \\ 0=\sum_{i=1}^{m} \alpha_{i} y_{i} \\ C=\alpha_{i}+\beta_{i} \end{array}

将其代入到上式中去可得到,注意

\beta

被消掉了:

\begin{aligned} \max _{\alpha, \beta} L(\omega, b, \alpha, \xi, \beta)=& \sum_{i=1}^{m} \alpha_{i}-\frac{1}{2} \sum_{i=1}^{m} \sum_{j=1}^{m} \alpha_{i} \alpha_{j} y_{i} y_{j} x_{i}^{T} x_{j} \\ & \text { s.t. } \sum_{i=1}^{m} \alpha_{i} y_{i}=0 \quad\left(0 \leq \alpha_{i} \leq C, i=1,2, \ldots, m\right) \end{aligned}

此时需要求解

\alpha

,同样利用SMO(序列最小优化)算法。

七. 核函数

为什么要引入核函数:

当样本在原始空间线性不可分时,可将样本从原始空间映射到一个更高维的特征空间,使得样本在这个特征空间内线性可分。而引入这样的映射后,所要求解的对偶问题的求解中,无需求解真正的映射函数,而只需要知道其核函数。核函数的定义:K(x,y)=<ϕ(x),ϕ(y)>,即在特征空间的内积等于它们在原始样本空间中通过核函数 K 计算的结果。一方面数据变成了高维空间中线性可分的数据,另一方面不需要求解具体的映射函数,只需要给定具体的核函数即可,这样使得求解的难度大大降低。

用自己的话说就是,在SVM不论是硬间隔还是软间隔在计算过程中,都有X转置点积X,若X的维度低一点还好算,但当我们想把X从低维映射到高维的时候(让数据变得线性可分时),这一步计算很困难,等于说在计算时,需要先计算把X映射到高维的的ϕ(x),再计算ϕ(x1)和ϕ(x2)的点积,这一步计算起来开销很大,难度也很大,此时引入核函数,这两步的计算便成了一步计算,即只需把两个x带入核函数,计算核函数,举个列子一目了然(图片来自:从零推导支持向量机):

个人对核函数的理解:核函数就是一个函数,接收两个变量,这两个变量是在低维空间中的变量,而核函数求的值等于将两个低维空间中的向量映射到高维空间后的内积。

八. 如何确定一个函数是核函数

验证正定核啥的,咱也不太懂,给出:

\mathcal{X} \subset R^{n}

,

K(x, z)

是定义在

\mathcal{X} \times \mathcal{X}

上的对称函数,如果对任意的

x_{i} \in \mathcal{X}, i=1,2, \ldots, m

K(x, z)

对应的Gram矩阵

K=\left[K\left(x_{i}, x_{j}\right)\right]_{m \times m}

是半正定矩阵,则

K(x, z)

是正定核

所以不懂,就用人家确定好的常见核函数及其优缺点:

九. 如何选择核函数:

  • 当特征维数
d

超过样本数

m

时 (文本分类问题通常是这种情况), 使用线性核;

  • 当特征维数
d

比较小. 样本数

m

中等时, 使用RBF核;

  • 当特征维数
d

比较小. 样本数

m

特别大时, 支持向量机性能通常不如深度神经网络

十. 关于支持向量的问题

1. 先说硬间隔:

先看KKT条件

  • 主问题可行:
1-y_{i}\left(\boldsymbol{w}^{\top} \boldsymbol{x}_{i}+b\right) \leq 0
  • 对偶问题可行:
\alpha_{i} \geq 0
  • 互补松弛:
\alpha_{i}\left(1-y_{i}\left(\boldsymbol{w}^{\top} \boldsymbol{x}_{i}+b\right)\right)=0

支持向量,对偶变量

\alpha_{i} > 0

对应的样本;

  • 线性支持向量机中, 支持向量是距离划分超平面最近的样本, 落在最大间隔边界上。

证明:由线性支持向量机的KKT 条件可知,

\alpha_{i}(1-\left.y_{i}\left(\boldsymbol{w}^{\top} \boldsymbol{x}_{i}+b\right)\right)=0

。当

\alpha_{i}>0

时,

1-y_{i}\left(\boldsymbol{w}^{\top} \boldsymbol{x}_{i}+b\right)=0

,即

y_{i}\left(\boldsymbol{w}^{\top} \boldsymbol{x}_{i}+b\right)=1
  • 支持向量机的参数 (w; b) 仅由支持向量决定, 与其他样本无关。
2. 再说软间隔:

先看kkt条件:

  • 主问题可行:
1-\xi_{i}-y_{i}\left(\boldsymbol{w}^{\top} \boldsymbol{\phi}\left(\boldsymbol{x}_{i}\right)+b\right) \leq 0,-\xi_{i} \leq 0
  • 对偶问题可行:
\alpha_{i} \geq 0, \beta_{i} \geq 0
  • 互补松弛:
\alpha_{i}\left(1-\xi_{i}-y_{i}\left(\boldsymbol{w}^{\top} \boldsymbol{\phi}\left(\boldsymbol{x}_{i}\right)+b\right)\right)=0, \beta_{i} \xi_{i}=0

经过SMO后,求得

\hat{\alpha}

0<\hat{\alpha}_{j}< C

对于任意样本

\left(X_{i}, y_{i}\right)

\alpha_{i}=0

,此样本点不是支持向量,该样本对模型没有任何的作用

\alpha_{i}>0

,此样本是一个支持向量(同硬间隔)

若满足

\alpha_{i}>0

,进一步地,

0<\alpha_{i}< C

, 则

\beta_{i}=0

,即刚好

y_{i}\left(X_{i}^{T} W+b\right)=1

,样本恰好在最大间隔边界上

\alpha_{i}=C

,有

\beta_{i}>0

,此时若

\beta_{i}<1

则该样本落在最大间隔内部

\beta_{i}>1

则该样本落在最大间隔内部(不属于自己的另一部分)即被错误分类 如图:

十一. 谈谈SVM的损失函数

此处说的是软间隔:

先看软间隔的基本型形式:

\min _{w, b} \frac{1}{2}\|w\|^{2}+C \sum_{i=1}^{n} \max \left(0,1-y_{i}\left(w^{T} x_{i}+b\right)\right)

稍微做一点变化:

\min _{\boldsymbol{w}, b} \frac{1}{m} \sum_{i=1}^{m}\left(\max 0,1-y_{i}\left(\boldsymbol{w}^{\top} \boldsymbol{\phi}\left(\boldsymbol{x}_{i}\right)+b\right)+\frac{\lambda}{2}\|\boldsymbol{w}\|^{2}\right.

这样写是为了符合标准的损失函数+正则化的样子,其中, 第一项称为经验风险, 度量了模型对训练数据的拟合程度; 第二项称为结构风险, 也称为正则化项, 度量 了模型自身的复杂度. 正则化项削减了假设空间, 从而 降低过拟合风险. λ 是个可调节的超参数, 用于权衡经验风险和结构风险.

其中:

\xi_{i}=\max \left(0,1-y_{i}\left(\boldsymbol{w}^{\top} \boldsymbol{\phi}\left(\boldsymbol{x}_{i}\right)+b\right)\right) \geq 0
\lambda=\frac{1}{m C}

这样的话给上式乘以mc,就会变成上上式了。

十二. 为什么SVM对缺失数据敏感?

这里说的缺失数据是指缺失某些特征数据,向量数据不完整。SVM 没有处理缺失值的策略。而 SVM 希望样本在特征空间中线性可分,所以特征空间的好坏对SVM的性能很重要。缺失特征数据将影响训练结果的好坏。

十三. SVM的优缺点:

优点:
  • 由于SVM是一个凸优化问题,所以求得的解一定是全局最优而不是局部最优。
  • 不仅适用于线性线性问题还适用于非线性问题(用核技巧)。
  • 拥有高维样本空间的数据也能用SVM,这是因为数据集的复杂度只取决于支持向量而不是数据集的维度,这在某种意义上避免了“维数灾难”。
  • 理论基础比较完善(例如神经网络就更像一个黑盒子)。
缺点:
  • 二次规划问题求解将涉及m阶矩阵的计算(m为样本的个数), 因此SVM不适用于超大数据集。(SMO算法可以缓解这个问题)
  • 只适用于二分类问题。(SVM的推广SVR也适用于回归问题;可以通过多个SVM的组合来解决多分类问题)看了这篇文章你还不懂SVM你就来打我[1]SVM 高频面试题[2]从零推导支持向量机(SVM)[3]

本文参考资料

[1]

看了这篇文章你还不懂SVM你就来打我: https://zhuanlan.zhihu.com/p/49331510

[2]

SVM 高频面试题: https://zhuanlan.zhihu.com/p/43827793

[3]

从零推导支持向量机(SVM): https://zhuanlan.zhihu.com/p/31652569

- END -

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-03-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 NewBeeNLP 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 写在前面
  • 一、SVM简介
  • 二、SVM 为什么采用间隔最大化(与感知机的区别)
  • 三、SVM的目标(硬间隔)
  • 四、求解目标(硬间隔)
  • 五、软间隔
  • 六、软间隔求解
  • 七. 核函数
  • 八. 如何确定一个函数是核函数
  • 九. 如何选择核函数:
  • 十. 关于支持向量的问题
    • 1. 先说硬间隔:
      • 2. 再说软间隔:
      • 十一. 谈谈SVM的损失函数
      • 十二. 为什么SVM对缺失数据敏感?
      • 十三. SVM的优缺点:
        • 优点:
          • 缺点:
            • 本文参考资料
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档