首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >SVR中超参数C的定义是否与SVM中相应的C相反?

SVR中超参数C的定义是否与SVM中相应的C相反?
EN

Stack Overflow用户
提问于 2021-07-16 23:50:19
回答 1查看 31关注 0票数 0

我刚刚意识到,由于nice article,支持向量机可以用于回归,然而,我对超参数C的定义感到相当困惑。

我很清楚与每个数据点相关的松弛变量\xi_i和分类支持向量机中的超参数C。在那里,目标函数是\min_{w,b} \frac{|w|}{2} + C\sum_{i=1}^N \xi_i,使得

y_i (w \cdot x_i + b) \ge 1- \xi_i和\xi_i \ge 0。

在支持向量机中,C越大,惩罚就越大,因此当C变为无穷大时,软支持向量机就会变成硬支持向量机。(对于原始的latex代码,很抱歉,我记得latex是受支持的,但似乎不是这样)

从链接的文章中,目标函数和约束如下

我认为这些方程还意味着C越大,惩罚就越大。然而,这篇文章的作者提出了相反的观点,

我注意到有人在文章末尾问了作者同样的问题,但没有得到回应。

我猜等式中可能有一个拼写错误,所以我从任何参考资料中寻找支持,然后我发现SVR in Python使用相同的约定,正则化的强度与C成反比。我试图检查SVR的源代码,但我找不到任何公式。有人能帮我解决这个问题吗?谢谢!

EN

回答 1

Stack Overflow用户

发布于 2021-11-19 09:03:25

C是正则化参数,这意味着它在W的平方之前,而不是在松弛之前,所以C参数可能等于1/C。

票数 0
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/68411890

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档