首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器学习(一):k最近邻(kNN)算法

一、概述

kNN算法,即K最近邻(k-NearestNeighbor)分类算法,是最简单的机器学习算法,没有之一。

该算法的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。K通常是不大于20的整数。KNN算法中,所选择的邻居都是已经正确分类的对象。该方法在定类决策上只依据最邻近的一个或者几个样本的类别来决定待分样本所属的类别。

kNN

如上图所示,绿色圆要被决定赋予哪个类,是红色三角形还是蓝色四方形?如果K=3,由于红色三角形所占比例为2/3,绿色圆将被赋予红色三角形那个类,如果K=5,由于蓝色四方形比例为3/5,因此绿色圆被赋予蓝色四方形类。由此也说明了KNN算法的结果很大程度取决于K的选择。

在kNN中,计算对象之间的距离通常使用欧氏距离。比如若是求二维平面的欧氏距离,则公式为d = sqrt[(x1 - x2)^2 + (y1 - y2)^2]

接下来对KNN算法的思想总结一下:就是在训练集中数据和标签已知的情况下,输入测试数据,将测试数据的特征与训练集中对应的特征进行相互比较,找到训练集中与之最为相似的前K个数据,则该测试数据对应的类别就是K个数据中出现次数最多的那个分类,其算法的描述为:

(一)计算测试数据与各个训练数据之间的距离;

(二)按照距离的递增关系进行排序;

(三)选取距离最小的K个点;

(四)确定前K个点所在类别的出现频率;

(五)返回前K个点中出现频率最高的类别作为测试数据的预测分类。

二、python函数准备

在用python编写kNN算法之前,有一些数值相关的python函数需要了解一下。

(一)shape()

shape是numpy函数库中的方法,用于查看矩阵或者数组的维数

shape(array)若矩阵有m行n列,则返回(m,n)

array.shape[0]返回矩阵的行数m,array.shape[1]返回矩阵的列数n

(二)tile()

tile()是numpy函数库中的方法,作用是数组沿各维度重复自己。函数的形式是tile(A,reps)。

以A=[1,2]为例。

例1:tile(A,2) = [1,2,1,2]

分析:A的第一个维度重复2遍(包含本身的一遍),得到的结果为[1,2,1,2]

例2:tile(A,(2,3)) = [[1,2,1,2,1,2], [1,2,1,2,1,2]]

分析:reps的数字从后往前分别对应A的第N个维度的重复次数。A的第一个维度重复3遍,得到[1,2,1,2,1,2]。在此基础上,第二个维度重复2遍,得到[[1,2,1,2,1,2], [1,2,1,2,1,2]]

例3:tile(A,(2,2,3)) = [[[1,2,1,2,1,2], [1,2,1,2,1,2]],

            [[1,2,1,2,1,2], [1,2,1,2,1,2]]]

分析:reps的数字从后往前分别对应A的第N个维度的重复次数。A的第一个维度重复3遍,得到[1,2,1,2,1,2]。在此基础上,第二个维度重复2遍,得到[[1,2,1,2,1,2], [1,2,1,2,1,2]]。在此基础上,第三个维度重复2遍,得到[[[1,2,1,2,1,2], [1,2,1,2,1,2]], [[1,2,1,2,1,2], [1,2,1,2,1,2]]]

(三)sum()

sum()是numpy函数库中的方法

array.sum(axis=1)按行累加,array.sum(axis=0)按列累加

例:A = [[1,2],[3,4]],则A.sum(axis=1) = [3, 7],A.sum(axis=0) = [4, 6]

(四)argsort()

argsort()是numpy中的方法,得到排序后新矩阵中每个元素对应于该元素在未排序前旧矩阵中的位置。

例:A = [3, 1, 2],则argsort(A) = [1, 2, 0]。因为排序后得到的新矩阵A’= [1, 2, 3],“1”是A的第1个元素,“2”是A的第2个元素,“3”是A的第0个元素,所以结果为[1, 2, 0]

(五)get()

dict.get(key, default=None)是python中的方法,default表示假如指定的键不存在的话,返回的默认值。

例:dict d={‘age’, 20},则d.get(‘age’,0) = 20, d.get(‘name’, 0) = 0

三、程序实现

(一)代码

(二)运行结果

打开cmd命令行窗口,输入如下命令

result

四、程序分析

(一)这里训练集为

[[1.0, 2.0],

[1.2, 0.1],

[0.1, 1.4],

[0.3, 3.5]]

训练集中的4个元素分别对应于类别A, A, B, B

可将训练集中的四个元素看做四个点:

x0(1.0, 2.0), x1(1.2, 0.1), x2(0.1, 1.4), x3(0.3, 3.5)

测试点为x(1.1, 0.3)

(二)classify()函数逐行分析

dataSize = 4(行数)

tile(input, (4, 1)) =

[[1.1, 0.3],

[1.1, 0.3],

[1.1, 0.3],

[1.1, 0.3]]

tile(input, (4, 1)) - dataSet =

[[ 0.1, -1.7],

[-0.1, 0.2],

[1, -1.1],

[0.8, -3.2]]

这里每行中的两个数,具体是这么算出来的:

x - x0 = 0.1, y - y0 = -1.7

x - x1 = -0.1, y - y1 = 0.2

x - x2 = 1, y - y2 = -1.1

x - x3 = 0.8, y - y3 = -3.2

diff2 =

[[0.01, 2.89],

[0.01, 0.04],

[1, 1.21],

[0.64, 10.24]

这些数据是这么计算出来的:

(x - x0)^2 = 0.01, (y - y0)^2 = 2.89

(x - x1)^2 = 0.01, (y - y1)^2 = 0.04

(x - x2)^2 = 1, (y - y2)^2 = 1.21

(x - x3)^2 = 0.64, (y - y3)^2 = 10.24

dist2 =

[2.9,

0.05,

2.21,

10.88]

这里每个元素就代表每个点与x0的距离的平方,即

d0^2 = (x - x0)^2 + (y - y0)^2 = 2.9

d1^2 = (x - x1)^2 + (y - y1)^2 = 0.05

d2^3 = (x - x2)^2 + (y - y2)^2 = 2.21

d3^4 = (x - x3)^2 + (y - y3)^2 = 10.88

dist =

[1.70293864,

0.2236068,

1.48660687,

3.2984845]

这里每个元素代表每个点与x的距离,即

d0 = 1.70293864

d1 = 0.2236068

d2 = 1.48660687

d3 = 3.2984845

distIndex = [1, 2, 0, 3],表示

最小的距离位于dist中的第1个位置,即d1

次小的距离的位于dist中的第2个位置,即d2

第三小的距离位于dist中的第0个位置,即d0

最大距离位于dist中的第3位置,即d3

第一个for循环中,

for 0 in range(3)

label = labels[1] = ‘A’

classCount[‘A’] = 1

for 1 in range(3)

label = labels[2] = ‘B’

classCount[‘B’] = 1

for 2 in range(3)

label = labes[0] = ‘A’

labelCount[‘A’] = 2

所以,字典labelCount中的值为{‘A’:2, ‘B’:1}。

第二个for循环中,

for ‘A’,2 in labelCount

value = 2, maxCount = 0, if条件成立

maxCount = 2, label = ‘A’

for ‘B’,1 in labelCount

value = 1, maxCount = 2, if条件不成立。循环结束。

最终,返回targetLabel = ’A’

五、Github代码下载地址

kNN算法Github下载

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180306G1P6AF00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券