机器学习->机器学习算法->程序的迭代
传统机器学习(在公司的数据挖掘中比较适用):有监督(有目标值)
强化学习:在学习的基础,机器自己训练自己
深度学习:图像识别,自然语言处理
众所周知,电影可以按照题材分类,然而题材本身是如何定义的?由谁来判定某部电影属于哪 个题材?也就是说同一题材的电影具有哪些公共特征?这些都是在进行电影分类时必须要考虑的问 题。没有哪个电影人会说自己制作的电影和以前的某部电影类似,但我们确实知道每部电影在风格 上的确有可能会和同题材的电影相近。那么动作片具有哪些共有特征,使得动作片之间非常类似, 而与爱情片存在着明显的差别呢?动作片中也会存在接吻镜头,爱情片中也会存在打斗场景,我们 不能单纯依靠是否存在打斗或者亲吻来判断影片的类型。但是爱情片中的亲吻镜头更多,动作片中 的打斗场景也更频繁,基于此类场景在某部电影中出现的次数可以用来进行电影分类。 本章介绍第一个机器学习算法:K-近邻算法,它非常有效而且易于掌握。
#KNN算法是有监督的学习,数据必须带有目标值
#要求数据的样本要平衡
#要清楚k值的作用:找周围离自己最近的几个数据
#数据处理
#建立模型->训练数据->模型评估->预测数据
#机器学习应对的三种数据:结构化数据,半结构化数据(html),非结构化数据
简单地说,K-近邻算法采用测量不同特征值之间的距离方法进行分类。
也称作基于实例的学习法:给定一个训练元组,简单地存储它,一直等到给定一个检验元组,仅当看到检验元组时,他才进行泛化(是指机器学习算法对新鲜样本的适应能力),以便根据存储的训练元组的相识性对该元组进行分类 优点 : 原理简单,实现起来比较方便。支持增量学习,能对超多边形的复杂决策空间建模 缺点 : 计算开销大,需要有效的存储技术和并行的硬件支撑。
存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据
与所属分类的对应关系。输人没有标签的新数据后,将新数据的每个特征与样本集中数据对应的
特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们
只选择样本数据集中前K个最相似的数据,这就是K-近邻算法中K的出处,通常*K是不大于20的整数。
最后 ,选择K个最相似数据中出现次数最多的分类,作为新数据的分类*。
回到前面电影分类的例子,使用K-近邻算法分类爱情片和动作片。有人曾经统计过很多电影的打斗镜头和接吻镜头,下图显示了6部电影的打斗和接吻次数。假如有一部未看过的电影,如何确定它是爱情片还是动作片呢?我们可以使用K-近邻算法来解决这个问题。
首先我们需要知道这个未知电影存在多少个打斗镜头和接吻镜头,上图中问号位置是该未知电影出现的镜头数图形化展示,具体数字参见下表。
![2.PNG](./knn_image/2.PNG)
即使不知道未知电影属于哪种类型,我们也可以通过某种方法计算出来。首先计算未知电影与样本集中其他电影的距离,如图所示。
现在我们得到了样本集中所有电影与未知电影的距离,按照距离递增排序,可以找到K个距 离最近的电影。假定k=3,则三个最靠近的电影依次是California Man、He's Not Really into Dudes、Beautiful Woman。K-近邻算法按照距离最近的三部电影的类型,决定未知电影的类型,而这三部电影全是爱情片,因此我们判定未知电影是爱情片。
In [24]:
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import seaborn as sns
from sklearn.neighbors import KNeighborsClassifier
In [25]:
moive = pd.read_excel('tests.xlsx', sheet_name=1)
moive
Out[25]:
电影名称 | 武打镜头 | 接吻镜头 | 分类情况 | |
---|---|---|---|---|
0 | 大话西游 | 36 | 1 | 动作片 |
1 | 杀破狼 | 43 | 2 | 动作片 |
2 | 前任3 | 0 | 10 | 爱情片 |
3 | 战狼2 | 59 | 1 | 动作片 |
4 | 泰坦尼克号 | 1 | 15 | 爱情片 |
5 | 星语心愿 | 2 | 19 | 爱情片 |
In [26]:
feature = moive.iloc[:,1:-1]
labels = moive.iloc[:,-1]
In [27]:
#实例化的是一个空模型
# k邻居分类
knn = KNeighborsClassifier()
In [28]:
#训练数据 X = feature (必须是二维的) y = labels
knn.fit(feature,labels)
Out[28]:
KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',
metric_params=None, n_jobs=1, n_neighbors=5, p=2,
weights='uniform')
In [29]:
#评估
knn.score(feature,labels)
Out[29]:
1.0
In [30]:
#测试 测试的数据
new_moive = pd.DataFrame(data=[['功夫',30,1,'动作片'],
['叶问',60,28,'动作片'],
['乡村爱情',3,30,'爱情片'],
['情深雨濛',43,43,'爱情片']
],columns=moive.columns)
In [31]:
new_moive
Out[31]:
电影名称 | 武打镜头 | 接吻镜头 | 分类情况 | |
---|---|---|---|---|
0 | 功夫 | 30 | 1 | 动作片 |
1 | 叶问 | 60 | 28 | 动作片 |
2 | 乡村爱情 | 3 | 30 | 爱情片 |
3 | 情深雨濛 | 43 | 43 | 爱情片 |
In [32]:
F = new_moive.iloc[:,1:-1]
L = new_moive.iloc[:,-1]
In [33]:
#预测
knn.predict(F)
Out[33]:
array(['动作片', '动作片', '爱情片', '动作片'], dtype=object)
In [34]:
#(x,y)散点图,c : class ,只认识0,1,2
plt.scatter(feature.iloc[:,0],feature.iloc[:,1],c=[0,0,1,0,1,1])
plt.scatter(F.iloc[:,0],F.iloc[:,1],c=[0,0,1,1],cmap='rainbow')
Out[34]:
<matplotlib.collections.PathCollection at 0x26f3697ddd8>
欧氏距离是最常见的距离度量,衡量的是多维空间中各个点之间的绝对距离。公式如下:
用于分类 导包,机器学习的算法KNN、数据蓝蝴蝶
In [16]:
iris=sns.load_dataset('iris')
In [14]:
knn.fit(iris.iloc[:,0:-1],iris.iloc[:,-1])
Out[14]:
KNeighborsClassifier(algorithm='auto', leaf_size=30, metric='minkowski',
metric_params=None, n_jobs=1, n_neighbors=5, p=2,
weights='uniform')
In [15]:
knn.score(iris.iloc[:,0:-1],iris.iloc[:,-1])#评估值为0.9666666666666667
Out[15]:
0.9666666666666667
In [17]:
data=pd.DataFrame(data=[['6.7','4.5','1.5','0.3','setosa']],columns=iris.columns)
In [18]:
data
Out[18]:
sepal_length | sepal_width | petal_length | petal_width | species | |
---|---|---|---|---|---|
0 | 6.7 | 4.5 | 1.5 | 0.3 | setosa |
In [19]:
knn.predict(data.iloc[:,0:-1])
Out[19]:
array(['setosa'], dtype=object)
In [ ]: