前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[吴恩达机器学习笔记]12支持向量机2 SVM的正则化参数和决策间距

[吴恩达机器学习笔记]12支持向量机2 SVM的正则化参数和决策间距

作者头像
演化计算与人工智能
发布2020-08-14 14:58:13
7910
发布2020-08-14 14:58:13
举报

“参考资料 斯坦福大学 2014 机器学习教程中文笔记 by 黄海广

12.2 大间距的直观理解- Large Margin Intuition

  • 人们有时将支持向量机看作是大间距分类器。在这一部分,我将介绍其中的含义,这有助于我们直观理解 SVM 模型的假设是什么样的。以下图片展示的是 SVM 的代价函数:

最小化 SVM 代价函数的必要条件

  • 如果你有一个正样本,y=1,则只有在 z>=1 时代价函数
cost_1(z)

才等于 0。反之,如果 y=0,只有在 z<=-1 的区间里

cost_0(z)

函数值为 0。这是 支持向量机 的一个有趣性质。

  • 事实上,如果你有一个正样本 y=1,则仅仅要求
\theta^{T}x\ge0

,就能将该样本恰当分出.类似地,如果你有一个负样本,则仅需要

\theta^{T}x\le0

就可以将负例正确分离。

  • 但是,支持向量机的要求更高,对于正样本不仅仅要能正确分开输入的样本,即不仅仅要求
\theta^{T}x\ge0

还需要的是比 0 值大很多,比如大于等于 1。对于负样本,SVM 也想

\theta^{T}x

比 0 小很多,比如我希望它小于等于-1,这就相当于在支持向量机中嵌入了一个额外的安全因子。或者说安全的间距因子。

正则化参数 C 与决策边界与决策间距

  • 假设把 C 即正则化参数设定为一个很大的常数,那么为了优化整个 SVM 损失函数需要把损失项降到最小,即会尽量使乘积项为 0,这会使其严格满足以下的约束条件:
min\ (C*0+\frac{1}{2}\sum^{n}_{i=1}\theta_j^2)
  • 线性可分-决策边界
  • 可以找到一条直线将正样本和负样本完美地划分开,此例中可以找到多条直线将其分开,下图中的 红线,绿线,黑线 都能将图中点很好的分开,当 正则化参数 很大时则边界线的 间距(margin) 就会很大,即会选择下图中的黑线作为边界线。这使得 SVM 具有良好的鲁棒性,即会尽量使用大的间距去分离。所以 SVM 也被称为 大间距分类器(Large margin classifier)
  • 当 C 非常大时,SVM 会使用最大的间距将正负样本分开,如下图中的黑线
  • 但是当 C 非常大时,SVM 为了保证大的边距,对异常点非常敏感,此时边界会变为下图中的紫红色直线,如果此时 C 没有那么大,SVM 不会使用那么大的边距,则边界可能还是黑线
  • 当 C 不是非常非常大的时候,它可以忽略掉一些异常点的影响,得到更好的决策界。甚至当你的数据不是线性可分的时候,支持向量机也可以给出好的结果。
  • 回顾 C=1/λ,因此:
    • C 较大时,相当于 λ 较小,可能会导致过拟合,高方差。
    • C 较小时,相当于 λ 较大,可能会导致低拟合,高偏差。

参考资料

[1]

吴恩达老师课程原地址: https://study.163.com/course/courseMain.htm?courseId=1004570029

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-06-05,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 DrawSky 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 12.2 大间距的直观理解- Large Margin Intuition
    • 最小化 SVM 代价函数的必要条件
      • 正则化参数 C 与决策边界与决策间距
        • 参考资料
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档