对于分类问题,我们不再像回归问题那样,找出直线的斜率和截距。为了方便理解,将拥有一个特征的回归问题所绘制的图示和拥有两个特征的分类问题绘制的图示进行对比。
回归问题使用一个特征绘制和分类问题使用两个特征绘制的图示,虽然都是拥有横纵坐标的平面图,但是它们之间存在本质的区别。
我们为分类问题中的直线取一个新名字:决策边界(decision boundary),把决策边界定义为:
既然是分类问题的决策边界,肯定是类别之间的边界,实际上我们要找的这条线(决策边界)的目的就是为了把两个类别分割开。
向量的内积除了用向量中的元素进行定义,还可以根据向量的模和两个向量之间的夹角来定义。
我们需要通过训练找到权重向量,然后找到与这个向量垂直的直线,也就是所谓的决策边界,最后根据这条直线就可以对数据进行分类了。
References:
1.《白话机器学习的数学》