首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >支持向量回归-SVR

支持向量回归-SVR

作者头像
全栈程序员站长
发布2022-09-06 10:06:03
发布2022-09-06 10:06:03
5280
举报

大家好,又见面了,我是你们的朋友全栈君。

对于一般的回归问题,给定训练样本D={(x1,y1),(x2,y2),…,(xn,yn)},yi€R,我们希望学习到一个f(x)使得其与y尽可能的接近,w,b是待确定的参数。在这个模型中,只有当f(x)与y完全相同时,损失才为零,而支持向量回归假设我们能容忍的f(x)与y之间最多有ε的偏差,当且仅当f(x)与y的差别绝对值大于ε时,才计算损失,此时相当于以f(x)为中心,构建一个宽度为2ε的间隔带,若训练样本落入此间隔带,则认为是被预测正确的。(间隔带两侧的松弛程度可有所不同)

因此SVR问题可转化为(下式左部是正则化项):

l为损失函数

因此引入了松弛因子,重写第一个式子为:

最后引入拉格朗日乘子,可得拉格朗日函数:

对四个遍历求偏导,令偏导数为零,可得

把上边的式子带入,即可求得SVR的对偶问题

上边的过程需要满足KKT条件,即

最后,可得SVR的解为

其中b为

发布者:全栈程序员栈长,转载请注明出处:https://javaforall.cn/134989.html原文链接:https://javaforall.cn

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2022年6月5,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档