前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【机器学习】--SVM从初始到应用

【机器学习】--SVM从初始到应用

作者头像
LhWorld哥陪你聊算法
发布2018-09-13 15:15:37
3710
发布2018-09-13 15:15:37
举报

一、前述

SVM在2012年前还是很牛逼的,但是12年之后神经网络更牛逼些,但我们还是很有必要了解SVM的。

二、具体

1、问题引入

要解决的问题:基于以下问题对SVM进行推导

3条线都可以将两边点分类,什么样的决策边界才是最好的呢?  特征数据本身如果就很难分,怎么办呢?计算复杂度怎么样?能实际应用吗?

2、案例引入

假设有一个部队过雷区,我们肯定希望走的边界越大越好,这样踩雷的风险就低。

决策边界:选出来离雷区最远的(雷区就是边界上的点,要Large Margin),第二个肯定比第一个效果好。

我们希望找到离决策边界最近的点,这样就找到了决策边界。

所以,假设决策边界是一个阴影平面,求点到平面的距离转换成点到点的距离,然后再垂直方向上的投影。

数据标签定义:

优化的目标:找到一个w.b使得距离最近的点离这条线最远。

目标函数再化简:

继续转换:

SVM求解:

怎么样求a的值呢?请看下面一个例子:

SVM求解实例:

所以引出SVM的中文含义:支持向量

 总结:所有边界上的点a必然不等于0,所有非边界上的点a必等于0。支持向量机中的机就是边界的意思,支持向量就是边界点,a不为0的点,决定边界。

 当取60个样本点和120个样本点时,只要添加的不是边界上的样本点,那么决策边界就是不变的。

3、解决软间隔问题

4、解决低维不可分情况

低维不可分问题,转变为空间中高维可分问题,这就是核变换。

核函数就是低维到高维的映射就是

X之前的变换。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2018-06-18 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档