前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >支持向量机(Support Vector Machine)学习(补充)

支持向量机(Support Vector Machine)学习(补充)

作者头像
DuncanZhou
发布2018-09-04 16:09:34
3480
发布2018-09-04 16:09:34
举报
文章被收录于专栏:Duncan's Blog

SMO算法(Sequential Minimal Optimization)

1.定义

SMO算法用于训练SVM,将大优化问题分解为多个小优化问题。这些小优化问题往往很容易求解,并且对它们进行顺序求解的结构与将它们作为整体来求解的结果是完全一致。

2.目标及原理

SMO算法的工作目标是求出一系列alpha和b,一旦求出了这些alpha,就能求出权重向量w。 每次循环中选择两个alpha进行优化处理。一旦找到一对合适的alpha,那么就增大其中一个同时减少另一个。这里所谓的“合适”就是指两个alpha必须要符合一定的条件,条件之一就是这两个alpha必须在间隔边界之外,而其第二个条件则是这两个alpha还没有进行过区间化处理或者不在边界上。

3.调参

SVM中有两个参数C和K1,其中C是惩罚系数,即对误差的宽容度。C越高,说明越不能容忍出误差,容易过拟合。C越小,容易欠拟合。 k1是参数是RBF函数作为核函数后,该函数自带的一个参数,隐含的决定了数据映射到新的特征空间后的分布,k1越大,支持向量越少,k1越小,支持向量越多。支持向量的个数影响训练与预测的速度。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2018-08-10,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • SMO算法(Sequential Minimal Optimization)
    • 1.定义
      • 2.目标及原理
        • 3.调参
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档