KNN算法(K近邻算法)不需要任何框架,仅用单纯的python语言就可以编写,这里不要误会,不是说仅能使用Python语言才行。理论上所有的语言都可以开发。相对来数,Python语言的胶水特性很赞,这也是这两年python语言如此火热的原因之一。
举例说明:使用K近邻算法进行手写数字的识别
这里的手写数字与深度学习中的mnist数据集并不一样(密集恐惧症患者忽略,哈哈哈)
这是由0,1两种数字,如果对图片来说应该是像素值,所组成的图片“0”,分辨率为32x32,他的识别思路乍一看可能有一点抽象,如果我对这些像素进行展开,32x32展开为1x1024的一维张量,就可以识别了。
下面这是手写数字“1”的图片,对其进行相信想象,图片“1”与图片“0”所展开的一维1024张量必然不同,下面我们要做的就是对图片进行分类。
首先进行数据的预处理,将32x32的手写数字图片进行读入转换为1x1024张量
def img2vector(filename):
returnVect = zeros((1,1024))
fr = open(filename)
for i in range(32):
lineStr = fr.readline()
for j in range(32):
returnVect[0,32*i+j] = int(lineStr[j])
return returnVect
数据预处理后我们可以继续具体的手写数字分类
分类主函数
def handwritingClassTest():
hwLabels = []
trainingFileList = listdir('trainingDigits') #将手写数字的数据集进行载入
m = len(trainingFileList)
trainingMat = zeros((m,1024))
for i in range(m):
fileNameStr = trainingFileList[i]
fileStr = fileNameStr.split('.')[0]
classNumStr = int(fileStr.split('_')[0])
hwLabels.append(classNumStr)
trainingMat[i,:] = img2vector('trainingDigits/%s' % fileNameStr)
testFileList = listdir('testDigits') #对测试集进行遍历读入
errorCount = 0.0 #对分类错误的计数变量进行初始化
mTest = len(testFileList)
for i in range(mTest):
fileNameStr = testFileList[i]
fileStr = fileNameStr.split('.')[0]
classNumStr = int(fileStr.split('_')[0])
vectorUnderTest = img2vector('testDigits/%s' % fileNameStr)
classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)
print ("the classifier came back with: %d, the real answer is: %d" % (classifierResult, classNumStr))
if (classifierResult != classNumStr): errorCount += 1.0
print ("\nthe total number of errors is: %d" % errorCount)
print ("\nthe total error rate is: %f" % (errorCount/float(mTest)))
手写数字的分类主函数中最为重要的一行,进行真正的分类计算
classifierResult = classify0(vectorUnderTest, trainingMat, hwLabels, 3)
def classify0(inX, dataSet, labels, k):
dataSetSize = dataSet.shape[0]
diffMat = tile(inX, (dataSetSize,1)) - dataSet
sqDiffMat = diffMat**2
sqDistances = sqDiffMat.sum(axis=1)
distances = sqDistances**0.5
sortedDistIndicies = distances.argsort()
classCount={}
for i in range(k):
voteIlabel = labels[sortedDistIndicies[i]]
classCount[voteIlabel] = classCount.get(voteIlabel,0) + 1
sortedClassCount = sorted(classCount.items(), key=operator.itemgetter(1), reverse=True)
return sortedClassCount[0][0]
在classify0的定义函数中,我们可以看到一共需要进行四个参数的赋值,intx为待分类的张量,dataset为数据集,labels是最终的分类标签,K是一个“超参数”,在程序中进行欧几里得距离的计算,最终进行类别的确定。
欧几里得距离计算公式:
这是在二维平面空间中进行的计算方式。
最后我们来看一下分类的结果
错误率为1.16%,分类结果还可以,有兴趣的朋友,可以自己调整一下K参数,看看分类结果有哪些影响。
完整的代码开源在本人的GitHub社区,可以下载玩玩,顺便star,哈哈哈!
https://github.com/qianyuqianxun-DeepLearning/KNN-classify
AI学习的道路上,一起学习进步~
Reference(参考文献)