前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >学习SVM(三)理解SVM中的对偶问题

学习SVM(三)理解SVM中的对偶问题

作者头像
chaibubble
发布2018-01-15 16:40:41
1.2K0
发布2018-01-15 16:40:41
举报

学习SVM(一) SVM模型训练与分类的OpenCV实现 学习SVM(二) 如何理解支持向量机的最大分类间隔 学习SVM(三)理解SVM中的对偶问题 学习SVM(四) 理解SVM中的支持向量(Support Vector) 学习SVM(五)理解线性SVM的松弛因子

网上有很多关于SVM的优秀博客与其他学习资料,而个人感觉本系列博客与其他关于SVM的文章相比,多了一些细节的证明,比如线性分类器原理,支持向量原理等等。 同样是SVM,在《支持向量机导论》中有170+页的内容,而在《机器学习》(周志华)一书中仅仅是一个章节的内容,中间略过了细节推导的过程,这些被略过的推导过程在本系列博客中都会加入,也是在自学时验证过程中的一些总结,如有问题请指正。

在上一篇的内容中(学习SVM(二) 如何理解支持向量机的最大分类间隔),我们最后我们推导出优化目标为:

这里写图片描述
这里写图片描述

其中约束条件为n个,这是一个关于w和b的最小值问题。

根据拉格朗日乘子法:就是求函数f(x1,x2,…)在g(x1,x2,…)=0的约束条件下的极值的方法。其主要思想是将约束条件函数与原函数联系到一起,使能配成与变量数量相等的等式方程,从而求出得到原函数极值的各个变量的解。即可以求得:

这里写图片描述
这里写图片描述

其中a就是拉格朗日乘子法进入的一个新的参数,也就是拉格朗日乘子。 那么问题就变成了:

这里写图片描述
这里写图片描述

所谓的对偶问题就是:

这里写图片描述
这里写图片描述

做这种转换是为了后面的求解方便,因为最小值问题,求导就可以啦!! 下面对w和b分别求偏导(这里是纯数学计算,直接给结果了):

这里写图片描述
这里写图片描述

在这里求出了两个结果,带入到L(w,b,a)中:

这里写图片描述
这里写图片描述

所以问题被转化成为:

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述

注意这里的约束条件有n+1个。

添加符号,再一次转化条件:

这里写图片描述
这里写图片描述
这里写图片描述
这里写图片描述
本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017-07-12 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档