前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >学习分类 2-2 内积

学习分类 2-2 内积

作者头像
触摸壹缕阳光
发布2022-11-08 13:40:58
3640
发布2022-11-08 13:40:58
举报

内积

对于分类问题,我们不再像回归问题那样,找出直线的斜率和截距。为了方便理解,将拥有一个特征的回归问题所绘制的图示和拥有两个特征的分类问题绘制的图示进行对比。

回归问题使用一个特征绘制和分类问题使用两个特征绘制的图示,虽然都是拥有横纵坐标的平面图,但是它们之间存在本质的区别。

  • 回归问题的横坐标轴表示特征,纵坐标轴表示预测的实数值,因此它们之间的关系我们可以使用一条直线方程来表示;
  • 分类问题的横坐标轴和纵坐标轴都表示特征,而要预测的类别使用不同样式的点来表示,显然不能使用像回归问题的那种直线方程来表示了。

我们为分类问题中的直线取一个新名字:决策边界(decision boundary),把决策边界定义为:

w\cdot x = 0
w\cdot x = w_1x_1 + w_2x_2

既然是分类问题的决策边界,肯定是类别之间的边界,实际上我们要找的这条线(决策边界)的目的就是为了把两个类别分割开。

\begin{split} w\cdot x &= w_1x_1 + w_2x_2 \\ &=1\cdot x_1 + 1\cdot x_2\\ &= x_1+x_2 \end{split}
\begin{split} w\cdot x &= w_1x_1 + w_2x_2 \\ &=1\cdot 1 + 1\cdot 1\\ &= 2 >0 \end{split}
\begin{split} w\cdot x &= w_1x_1 + w_2x_2 \\ &=1\cdot 1 + 1\cdot -2\\ &= -1 < 0 \end{split}

向量的内积除了用向量中的元素进行定义,还可以根据向量的模和两个向量之间的夹角来定义。

w\cdot x = |w|\cdot |x|\cdot cos\theta

我们需要通过训练找到权重向量,然后找到与这个向量垂直的直线,也就是所谓的决策边界,最后根据这条直线就可以对数据进行分类了。

References:

1.《白话机器学习的数学》

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-07-04,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI机器学习与深度学习算法 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 内积
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档