机器学习(三)——k-近邻算法基础

机器学习(三)

——k-近邻算法基础

(原创内容,转载请注明来源,谢谢)

一、概述

k近邻算法(kNN),是监督学习的一种,主要用于分类,通过测量不同特征值之间的举例进行分类。

优点:精度高、对异常值不敏感、无数据输入假定。

缺点:计算复杂度高、空间复杂度高。

使用数据范围:数值型和标称型。

二、工作原理

1、原理

存在一个训练样本集,其中每个数据都存在标签,即可以知道数据的每个特征和其对于的分类结果。

现输入没有标签的数据,将新数据的每个特征值和样本集的数据对应特征进行比较,计算出距离最近的前k个数据(k近邻的k的出处)。比较这k个数据,将分类结果出现次数最多的结果,作为最终的结果。k通常不大于20。

2、距离计算公式

假设数据A有n个特征(x11,x12,x13…x1n),数据B的n个特征值为(x21,x22,x23…x2n),则AB两点的距离为

3、knn举例

假设数据有两个特征,数据集3个数,A(1,1,1),特征为x;B(0,1,0),特征为y;C(0,0,1),特征为y。则新加入的一个点D(1,1,0),要确定其特征,则需要计算AD、BD、CD三者的距离,取前k个值(由于这里数据太少,就取第一个值),即为D的特征。

三、kNN实施过程

对于未知类别属性,加入数据集,每次都需要执行以下操作:

1、计算已知类别数据集中的点与当前点之间的距离。

2、按距离的次序从小到大排序。

3、取排序结果的前k个值。

4、确定前k个值出现的频率。

5、返回频率最高的分类,即为分类结果。

四、代码实现(Python)

1、实现部分(文件名kNN.py)

1)引入python的numpy处理库以及operator库

from numpy import *

import operator

2)#训练数据集,特征2个,并且有对应的分类结果

def createDataSet():

group = array([[1.0,1.1],[1.0,1.0],[0,0],[0,0.1]])

labels = ['A', 'A', 'B', 'B']

return group, labels

3)训练和测试函数,输入待分类数据、训练集、对应分类结果、k值

def classify0(inX, dataSet, labels, k):

#计算距离

dataSetSize = dataSet.shape[0]

diffMat = tile(inX, (dataSetSize, 1)) - dataSet

sqDiffMat = diffMat**2

sqDistances = sqDiffMat.sum(axis=1)

distances = sqDistances**0.5

#排序

sortedDistIndicies = distances.argsort()

classCount = {}

#取排序结果前k个,确认分类结果出现最多的数据

for i in range(k):

voteIlabel = labels[sortedDistIndicies[i]]

classCount[voteIlabel] = classCount.get(voteIlabel, 0) + 1

sortedClassCount= sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)

returnsortedClassCount[0][0]

4)测试

def testsimpleknn():

group,labels = createDataSet()

result = classify0([0,0],group,labels,3)

return result

2、执行

在linux系统,进入python,输入import kNN,kNN.testsimpleknn(),结果是B,表示[0,0]数据会被分到特征值B。

——written by linhxx 2017.12.28

本文来自企鹅号 - PHP思想家媒体

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏技术沉淀

KNN算法实现及其交叉验证

简单的理解,我有一组数据,比如每个数据都是n维向量,那么我们可以在n维空间表示这个数据,这些数据都有对应的标签值,也就是我们感兴趣的预测变量。那么当我们接到一个...

43330
来自专栏ATYUN订阅号

【学术】在Google Sheet中创建深度神经网络

深度卷积神经网络并不像听起来的那样令人生畏。我将向你们展示我在Google Sheet中做的一个实现。复制它,你可以尝试一下,看看不同的因素如何影响模型的预测。...

31760
来自专栏奇点大数据

Pytorch神器(5)

大家好,今天我们进一步学习Pytorch的用法之正向传播(FeedForward)网络的用法。

16930
来自专栏机器之心

教程 | 仅需六步,从零实现机器学习算法!

从头开始写机器学习算法能够获得很多经验。当你最终完成时,你会惊喜万分,而且你明白这背后究竟发生了什么。

13120
来自专栏人工智能LeadAI

文本与序列的深度模型 | 深度学习笔记

Rare Event 与其他机器学习不同,在文本分析里,陌生的东西(rare event)往往是最重要的,而最常见的东西往往是最不重要的。 语法多义性 一个东西...

486100
来自专栏机器学习AI算法工程

Python写算法:二元决策树

二元决策树就是基于属性做一系列的二元(是/否)决策。每次决策对应于从两种可能性中选择一个。每次决策后,要么引出另外一个决策,要么生成最终的结果。一个实际训练...

31540
来自专栏AI2ML人工智能to机器学习

矩有四子

在讨论一些方法的几何意义之前需要理解一下线性代数的一个基础知识,就是矩阵和它代表的空间的含义。

14230
来自专栏机器学习算法工程师

你知道词袋模型吗?

词袋模型是一种在使用机器学习算法建模文本时表示文本数据的方式; 易于理解和实现,并且在语言建模和文档分类等问题上取得了巨大成功。

15630
来自专栏决胜机器学习

机器学习(三) ——k-近邻算法基础

机器学习(三)——k-近邻算法基础 (原创内容,转载请注明来源,谢谢) 一、概述 k近邻算法(kNN),是监督学习的一种,主要用于分类,通过...

378110
来自专栏机器之心

教程 | 如何判断LSTM模型中的过拟合与欠拟合

选自MachineLearningMastery 作者:Jason Brownlee 机器之心编译 参与:Nurhachu Null、路雪 判断长短期记忆模型在...

1.8K100

扫码关注云+社区

领取腾讯云代金券