首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >聚类算法原理及python实现

聚类算法原理及python实现

作者头像
bear_fish
发布2018-09-14 10:00:06
2.1K0
发布2018-09-14 10:00:06
举报

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://cloud.tencent.com/developer/article/1338369

本文主要内容:

  1. 聚类算法的特点
  2. 聚类算法样本间的属性(包括,有序属性、无序属性)度量标准
  3. 聚类的常见算法,原型聚类(主要论述K均值聚类),层次聚类、密度聚类
  4. K均值聚类算法的python实现,以及聚类算法与EM最大算法的关系
  5. 参考引用

先上一张gif的k均值聚类算法动态图片,让大家对算法有个感性认识:

其中:N=200代表有200个样本,不同的颜色代表不同的簇(其中 3种颜色为3个簇),星星代表每个簇的簇心。算法通过25次迭代找到收敛的簇心,以及对应的簇。 每次迭代的过程中,簇心和对应的簇都在变化。

聚类算法的特点

聚类算法是无监督学习算法和前面的有监督算法不同,训练数据集可以不指定类别(也可以指定)。聚类算法对象归到同一簇中,类似全自动分类。簇内的对象越相似,聚类的效果越好。K-均值聚类是每个类别簇都是采用簇中所含值的均值计算而成。


聚类样本间的属性(包括,有序属性、无序属性)度量标准

1. 有序属性

例如:西瓜的甜度:0.1, 0.5, 0.9(值越大,代表越甜)

我们可以使用明可夫斯基距离定义:

2. 无序属性

例如:色泽,青绿、浅绿、深绿(又例如: 性别: 男, 女, 中性,人yao…明显也不能使用0.1, 0.2 等表示求距离)。这些不能使用连续的值表示,求距离的,一般使用VDM计算:


聚类的常见算法,原型聚类(主要论述K均值聚类),层次聚类、密度聚类

聚类算法分为如下三大类:

1. 原型聚类(包含3个子类算法):
  1. K均值聚类算法
  2. 学习向量量化
  3. 高斯混合聚类
2. 密度聚类
3. 层次聚类

下面主要说明K均值聚类算法(示例来源于,周志华西瓜书)

算法基本思想:

K-Means 是发现给定数据集的 K 个簇的聚类算法, 之所以称之为 K-均值 是因为它可以发现 K 个不同的簇,且每个簇的中心采用簇中所含值的均值计算而成.簇个数 K 是用户指定的, 每一个簇通过其质心(centroid), 即簇中所有点的中心来描述.

算法流程如下:

主要是三个步骤:

  1. 初始化选择K个簇心,假设样本有 m个属性,则相当于k个m为向量
  2. 对于k个簇,求离其最近的样本,并划分新的簇
  3. 对于每个新的簇,更新簇心的向量(一般可以求簇的样本的属性的均值)
  4. 重复2~3直到算法收敛,或者运行了指定的次数

下面给出西瓜书的示例:

西瓜包含下面两个属性密度以及含糖率,这两个属性构成的二维向量,作为输入向量(具体数据如下表)

算法大致过程如下

下图是分类的,每一轮簇心的更新结果,图中横坐标密度属性,纵坐标含糖率属性:


4. K均值聚类算法的python实现

下面给出K-means cluster算法的实现的大致框架:

class KMeans(object):
    def __init__(self, k, init_vec, max_iter=100):
        """
        :param k:
        :param init_vec: init mean vectors type: k * n array(n properties)
        """
        self._k = k
        self._cluster_vec = init_vec
        self._max_iter = max_iter

    def fit(self, x):
        # 迭代最大次数
        for i in xrange(self._max_iter):
            print 'iteration %s' % i
            # 求每个簇心的簇类
            d_cluster = self._cluster_point(x)
            # 对现有的簇类,更新簇心
            new_center_node = self._reevaluate_center_node(d_cluster)

            # 检测簇心是否变化,判断算法收敛
            if self._check_converge(new_center_node):
                print 'found converge node'
                break
            else:
                self._cluster_vec = new_center_node

    def _cal_distance(self, vec1, vec2):
        return np.linalg.norm(vec1 - vec2)

    def _cluster_point(self, x):
        # 求每个簇心的簇
        pass
        return d_cluster

    def _reevaluate_center_node(self, d_cluster):
        # 对新的簇,求最佳簇心
        return arr_center_node

    def _check_converge(self, vec):
        # 判断簇心是否改变,算法收敛
        return np.array_equal(self._cluster_vec, vec)

具体的算法,以及见本人的github

下面给出程序的运行结果, 由图可见经过三次迭代程序收敛,并且找到最佳节点:

下面再给出,另一次运行结果,可见由于初始化点选择不一样,得到的结果也是不一样的,初始点的选择对聚类算法的影响还是很大。

K-means实际上是EM算法的一个特例,根据中心点(簇心)决定数据点归属是expectation,而根据构造出来的cluster更新中心(簇心)则是maximization。理解了K-means,也就顺带了解了基本的EM算法思路。


5. 参考引用

https://datasciencelab.wordpress.com/2013/12/12/clustering-with-k-means-in-python/

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017年11月13日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 聚类算法的特点
  • 聚类样本间的属性(包括,有序属性、无序属性)度量标准
    • 1. 有序属性
      • 2. 无序属性
        • 1. 原型聚类(包含3个子类算法):
        • 2. 密度聚类:
        • 3. 层次聚类:
    • 聚类的常见算法,原型聚类(主要论述K均值聚类),层次聚类、密度聚类
    • 4. K均值聚类算法的python实现
    • 5. 参考引用
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档