前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >KMeans算法

KMeans算法

作者头像
Steve Wang
发布2023-10-12 09:34:40
2470
发布2023-10-12 09:34:40
举报
文章被收录于专栏:从流域到海域从流域到海域

聚类是一种非监督学习方法,而K均值聚类(K-Means Clustering)是最基础和最常用的聚类算法。它的基本思想是:通过迭代方式寻找K的簇(Cluster)的一种划分方案,使得聚类结果对应的代价函数最小。特别的,代价函数可以定义为各个样本点到距离其所属簇中心点的误差的平方和:

J(c,\mu) = \sum_{i=1}^M||x_i-\mu_{c_i}||^2

其中

x_i

代表第

i

个样本,

c_i

x_i

所属的簇,

\mu_{c_i}

代表簇对应的中心点,

M

是样本总数。

基本原理

K均值聚类的核心目标是将给定的数据集划分成

K

个簇,并给每个数据对应的簇中心点。算法的具体步骤描述如下:

  1. 数据预处理,如归一化,离群点处理
  2. 随机选取K和簇中心,记为
\mu_1^{(0)},\mu_2^{(0)},\mu_k^{(0)}
  1. 定义代价函数:
J(c,\mu)=\min\limits_{\mu}\min\limits_{c}\sum_{i=1}^M||x_i-\mu_i||^2
t=0,1,2,...,

为迭代步数,重复以下过程直到

J

收敛: 对于每一个样本

x_i

,将其分配至距离最近的簇

c_i^{(t)}\leftarrow \argmin\limits_{k}||x_i-\mu_k^{(t)}||^2

对于每一个类簇

k

,重新计算该类簇的中心

\mu{(t+1)\leftarrow\argmin \limits_{\mu}}\sum_{i:c{(t)}=k}||x_i-\mu||^2

K均值算法在迭代时,假设当前

J

没有达到最小值,那么首先固定簇中心

\{\mu_k\}

,调整每个样例

x_i

所属的类别

c_i

来让受损失函数

J

减少,然后固定

\{c_i\}

,调整簇中心

\{\mu_k\}

使得

J

减少。这两个过程交替循环,

J

单调递减;当

J

递减到最小值时,

\{\mu_k\}

\{c_k\}

也同时收敛。

在这里插入图片描述
在这里插入图片描述
K均值算法的优缺点

K均值算法有一些缺点,例如:

  • 受初值和离群点的影响每次结果不稳定
  • 结果通常不是全局最优而是局部最优
  • 无法很好的解决数据簇分布差别比较大的情况(比如一个类别的样本数量是另一个类别的100倍)
  • 不太适用离散分类

但K均值算法也有一些优点:

  • 对大数据集,K均值算法是scalable和efficient的,计算复杂度是O(NKt)接近于线性,其中
N

是数据对象的数目,

K

是聚类的簇数,

t

是迭代的轮数。

  • 尽管算法进场以局部最优结束,但一般情况下的局部最优已经可以满足聚类的需求。
K均值算法如何调优
  1. 数据归一化和离群点处理 K均值聚类本质上是一种基于欧式距离度量的数据划分方法,均值和方差大的维度将对数据的聚类结果产生决定性的影响,所以未做归一化和同一单位的数据是无法参与运算和比较的。同时,离群点或者少量的噪声数据将会对均值产生较大的影响,导致中心偏移,因此使用K均值聚类之前通常需要对数据进行预处理。
  2. 合理的选择K值 手肘法 Gap Statistic

Gap Statistic定义为:

Gap(K)=E(logD_k)-logD_k

其中

E(logD_k)

logD_k

的期望,一般通过蒙特·卡罗尔模拟产生。

  1. 采用核函数引入非线性
K均值算法有哪些改进型

K均值算法的主要缺点: (1)需要人工预先确定初始

K

值,且该值和真实的数据分布未必吻合。 (2)K均值只能收敛到局部最优,效果受初始值影响很大。 (3)易收到噪声点的影响。 (4)样本点只能被划分到单一的类中。

改进型基本也是朝着能减弱这些缺点的方向来做。

KMeasn++算法

原始K均值算法最开始随机选取数据集中

K

个点作为聚类中心,而KMeans++算法按照如下的思想选取K和聚类中心:

假设已经选取了n个初始的聚类中心(

0<n<k

),则在选取第

n+1

个聚类中心时,距离当前

n

个聚类中心越远的点会有更高的概率被选为第

n+1

个聚类中心。在初次迭代选取第一个聚类中心是(

n=1

)仍然是随机选取的,这又符合我们的直觉,因为直观上讲聚类中心离得越远越好。其余过程和经典KMeans算法相同。

ISODATA

ISODATA全称迭代自组织数据分析法(Iterated Self Organization Data)。在KMeans算法中,聚类个数K往往实现由人为决定,计算过程中无法更改。而在海量高维数据的场景下,K的大小是难以估计的。ISODATA基于这个思想进行了改进:

  • 当属于某个类别的样本过多、分散程度过大时,将该类别分为两个子类别
  • 当属于某类别的样本过少时,将该类别去除。

ISODATA算法在K均值算法的基础之上增加了两个操作:

  1. 分裂操作,对应聚类中心的增加
  2. 合并操作,对应聚类中心的减少

该算法需要四个参数: (1)预期的聚类中心数目

K_0

。在ISODATA算法运行过程中聚类中心数可以改变,

K_0

只是一个参考值,最终输出的聚类中心一般在

0.5k_0<k<2k_0

之间。 (2)每个类所需要的最少样本数目

N_min

,如果分裂后将导致某个子类别的样本数目小于该阈值,则不会进行分裂操作。 (3)最大方差sigma。用于控制某个类别中样本的分散程度。当样本的分散程度大于这个阈值并且满足条件(2),则进行分裂。 (4)两个聚类中心之间允许的最小距离

D_{min}

,如果两个类之间的距离小于这个阈值,则对这两个类进行合并操作。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2023-03-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 基本原理
  • K均值算法的优缺点
  • K均值算法如何调优
  • K均值算法有哪些改进型
    • KMeasn++算法
      • ISODATA
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档