首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

SVM从初始到应用

一、前述

SVM在2012年前还是很牛逼的,但是12年之后神经网络更牛逼些,但我们还是很有必要了解SVM的。

二、具体

1、问题引入

要解决的问题:基于以下问题对SVM进行推导

3条线都可以将两边点分类,什么样的决策边界才是最好的呢? 特征数据本身如果就很难分,怎么办呢?计算复杂度怎么样?能实际应用吗?

2、案例引入

假设有一个部队过雷区,我们肯定希望走的边界越大越好,这样踩雷的风险就低。

决策边界:选出来离雷区最远的(雷区就是边界上的点,要Large Margin),第二个肯定比第一个效果好。

我们希望找到离决策边界最近的点,这样就找到了决策边界。

所以,假设决策边界是一个阴影平面,求点到平面的距离转换成点到点的距离,然后再垂直方向上的投影。

数据标签定义:

优化的目标:找到一个w.b使得距离最近的点离这条线最远。

目标函数再化简:

继续转换:

SVM求解:

怎么样求a的值呢?请看下面一个例子:

SVM求解实例:

所以引出SVM的中文含义:支持向量

总结:所有边界上的点a必然不等于0,所有非边界上的点a必等于0。支持向量机中的机就是边界的意思,支持向量就是边界点,a不为0的点,决定边界。

当取60个样本点和120个样本点时,只要添加的不是边界上的样本点,那么决策边界就是不变的。

3、解决软间隔问题

4、解决低维不可分情况

低维不可分问题,转变为空间中高维可分问题,这就是核变换。

核函数就是低维到高维的映射就是X之前的变换。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180618G1AUHU00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券