12.5 SVM 参数细节
标记点选取
- 标记点(landmark)如图所示为
,设核函数为 高斯函数 ,其中设预测函数 y=1 if
- 在实际中需要用 很多标记点 ,那么如何选取 标记点(landmark) ,即使用训练集中的样本作为标记点 ,假设有一个样本为
,则在相同的位置可以设置标记点
, 此时可以得到 m 个标记点与训练集中样本数一致,且每一个标记点的位置都与每一个样本的位置一致。 因为这说明特征函数基本上是在描述每一个样本距离与样本集中其他样本的距离
- 取 样本集(不仅仅是训练集,而是所有样本) 中的样本作为标记点.
- 然后使用 相似度 函数计算 每个样本和标记点之间的特征
,并且将所有的
集合成 特征向量 f .并且将默认的特征(截距)
设为 1,如下图所示:
- 示例 假设训练集中有样本
,则可以通过相似度函数计算出其与各个标记点的特征值从而组成特征向量
对于第 i 个标记点,由于有定义
,所以有
,而定义有 截距特征 为 1,则有以下结果:
应用 SVM
,再给定 x 的值,并对 y 做预测,首先要重新计算特征 f,并且要满足式子
.其中
也是一个 m+1 维的向量,m 是训练集的数量
- 在具体实施过程中,我们还需要对最后的归一化项进行些微调整,在计算
时,我们用
代替
其中 M 是根据我们选择的核函数而不同的一个矩阵。这样做的原因是为了简化计算
- 理论上讲,我们也可以在逻辑回归中使用核函数,但是上面使用 M 来简化计算的方法不适用与逻辑回归,因此计算将非常耗费时间
- 在此,我们不介绍最小化支持向量机的代价函数的方法,你可以使用现有的软件包(如 liblinear,libsvm 等)。在使用这些软件包最小化我们的代价函数之前,我们通常需要编写核函数,并且如果我们使用高斯核函数,那么在使用之前进行特征缩放是非常必要的。
- 另外,支持向量机也可以不使用核函数,不使用核函数又称为线性核函数(linear kernel),当我们不采用非常复杂的函数,或者我们的训练集特征非常多而实例非常少的时候,可以采用这种不带核函数的支持向量机
SVM 参数
正则化参数 C
的倒数
类似
,这意味着不使用正则化,会得到一个低偏差(bias),高方差(variance)的模型,则会更加倾向于 过拟合
,这意味着更多的正则化,会得到一个高偏差(bias),低方差(variance)的模型,则会更加倾向于 欠拟合
高斯核函数
较大时,曲线较为平滑,会下降地更为 平缓 ,会得到一个高偏差(bias),低方差(variance)的模型,则会更加倾向于 欠拟合
较小时,曲线较为陡峭,会下降地更为 迅速 ,会得到一个低偏差(bias),高方差(variance)的模型,则会更加倾向于 过拟合
参考资料
[1]
吴恩达老师课程原地址: https://study.163.com/course/courseMain.htm?courseId=1004570029