机器学习(三) ——k-近邻算法基础

机器学习(三)——k-近邻算法基础

(原创内容,转载请注明来源,谢谢)

一、概述

k近邻算法(kNN),是监督学习的一种,主要用于分类,通过测量不同特征值之间的举例进行分类。

优点:精度高、对异常值不敏感、无数据输入假定。

缺点:计算复杂度高、空间复杂度高。

使用数据范围:数值型和标称型。

二、工作原理

1、原理

存在一个训练样本集,其中每个数据都存在标签,即可以知道数据的每个特征和其对于的分类结果。

现输入没有标签的数据,将新数据的每个特征值和样本集的数据对应特征进行比较,计算出距离最近的前k个数据(k近邻的k的出处)。比较这k个数据,将分类结果出现次数最多的结果,作为最终的结果。k通常不大于20。

2、距离计算公式

假设数据A有n个特征(x11,x12,x13…x1n),数据B的n个特征值为(x21,x22,x23…x2n),则AB两点的距离为

3、knn举例

假设数据有两个特征,数据集3个数,A(1,1,1),特征为x;B(0,1,0),特征为y;C(0,0,1),特征为y。则新加入的一个点D(1,1,0),要确定其特征,则需要计算AD、BD、CD三者的距离,取前k个值(由于这里数据太少,就取第一个值),即为D的特征。

三、kNN实施过程

对于未知类别属性,加入数据集,每次都需要执行以下操作:

1、计算已知类别数据集中的点与当前点之间的距离。

2、按距离的次序从小到大排序。

3、取排序结果的前k个值。

4、确定前k个值出现的频率。

5、返回频率最高的分类,即为分类结果。

四、代码实现(Python)

1、实现部分(文件名kNN.py)

1)引入python的numpy处理库以及operator库

from numpy import *
import operator

2)#训练数据集,特征2个,并且有对应的分类结果

   def createDataSet():
   group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])
   labels = ['A', 'A', 'B', 'B']
   return group, labels

3)训练和测试函数,输入待分类数据、训练集、对应分类结果、k值

def classify0(inX, dataSet, labels, k):
    #计算距离
   dataSetSize = dataSet.shape[0]
   diffMat = tile(inX, (dataSetSize, 1)) - dataSet
   sqDiffMat = diffMat**2
   sqDistances = sqDiffMat.sum(axis=1)
   distances = sqDistances**0.5
    #排序
   sortedDistIndicies = distances.argsort()
   classCount = {}
    #取排序结果前k个,确认分类结果出现最多的数据
   for i in range(k):
       voteIlabel = labels[sortedDistIndicies[i]]
       classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1
    sortedClassCount= sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
returnsortedClassCount[0][0]

4)测试

def testsimpleknn():
   group,labels = createDataSet()
   result = classify0([0,0],group,labels,3)
return result

2、执行

在linux系统,进入python,输入import kNN,kNN.testsimpleknn(),结果是B,表示[0,0]数据会被分到特征值B。

——written by linhxx 2017.12.28

原文发布于微信公众号 - 决胜机器学习(phpthinker)

原文发表时间:2017-12-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏数据派THU

一文读懂支持向量机SVM(附实现代码、公式)

支持向量机(SVM),一个神秘而众知的名字,在其出来就受到了莫大的追捧,号称最优秀的分类算法之一,以其简单的理论构造了复杂的算法,又以其简单的用法实现了复杂的问...

1703
来自专栏机器学习算法与Python学习

SVM大解密(附代码和公式)

1365
来自专栏PPV课数据科学社区

【学习】R语言与机器学习学习笔记(2)决策树算法

算法二:决策树算法 决策树定义 首先,我们来谈谈什么是决策树。我们还是以鸢尾花为例子来说明这个问题。 观察上图,我们判决鸢尾花的思...

3409
来自专栏深度学习自然语言处理

梯度下降法理论与实践

理论基础 现在比如有两个参数的损失函数 ? 我们的目的是使之最小也就是得到能够使J函数最小的 ? , ? ,公式表示为: ? 我们画出当 ? ?...

2989
来自专栏企鹅号快讯

机器学习(三)——k-近邻算法基础

机器学习(三) ——k-近邻算法基础 (原创内容,转载请注明来源,谢谢) 一、概述 k近邻算法(kNN),是监督学习的一种,主要用于分类,通过测量不同特征值之间...

18810
来自专栏数据科学与人工智能

【算法】决策树与ID3算法

小编邀请您,先思考: 1 如何构建决策树? 2 决策树适合解决什么问题? 1. 什么是决策树/判定树(decision tree)? 决策树(Decision ...

3355
来自专栏PPV课数据科学社区

2017校招数据分析岗笔试/面试知识点

2017校招正在火热的进行,后面会不断更新涉及到的相关知识点。尽管听说今年几个大互联网公司招的人超少,但好像哪一年都说是就业困难,能够进去当然最好,不能进去是不...

2967
来自专栏企鹅号快讯

机器学习——SVM进一步认识

机器学习(十七) ——SVM进一步认识 (原创内容,转载请注明来源,谢谢) 注:这两天边看ng的svm视频,边看机器学习实战的书的svm代码,两边都看的云里雾里...

1856
来自专栏AI科技评论

开发 | 随机机器学习算法需要试验多少次,才足以客观有效的反映模型性能?

AI科技评论按:本文作者 Jason Brownlee 为澳大利亚知名机器学习专家,对时间序列预测尤有心得。原文发布于其博客。AI科技评论编译。 ? Jason...

2899
来自专栏PPV课数据科学社区

学习SVM,这篇文章就够了!

支持向量机(SVM),一个神秘而众知的名字,在其出来就受到了莫大的追捧,号称最优秀的分类算法之一,以其简单的理论构造了复杂的算法,又以其简单的用法实现了复杂的问...

2054

扫码关注云+社区