前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >复现经典:《统计学习方法》第22章 无监督学习方法总结

复现经典:《统计学习方法》第22章 无监督学习方法总结

作者头像
黄博的机器学习圈子
发布2020-06-11 15:26:33
5220
发布2020-06-11 15:26:33
举报

第22章 无监督学习方法总结

本文是李航老师的《统计学习方法》一书的代码复现。作者:黄海广 备注:代码都可以在github中下载。

无监督学习方法的关系和特点

第2篇详细介绍了八种常用的统计机器学习方法,即聚类方法(包括层次聚类与k均值聚类)、奇异值分解(SVD)、主成分分析(PCA)、无监督学习方法总结 22.1无监潜在语义分析(LSA)、概率潜在语义分析(PLSA)、马尔可夫链蒙特卡罗法(CMC,包括 Metropolis-Hastings-算法和吉布斯抽样)、潜在狄利克雷分配(LDA)、 PageRank算法。此外,还简单介绍了另外三种常用的统计机器学习方法,即非负矩阵分解(NMF)变分推理、幂法。这些方法通常用于无监督学习的聚类、降维、话题分析以及图分析。

表 无监督学习方法的特点

方法

模型

策略

算法

聚类

层次聚类

聚类树

类内样本距离最小

启发式算法

k均值聚类

k中心聚类

样本与类中心距离最小

迭代算法

高斯混合模型

高斯混合模型

似然函数最大

EM算法

降维

PCA

低维正交空间

方差最大

SVD

话题分析

LSA

矩阵分解模型

平方损失最小

SVD

NMF

矩阵分解模型

平方损失最小

非负矩阵分解

PLSA

PLSA模型

似然函数最大

EM算法

LDA

LDA模型

后验概率估计

吉布斯抽样,变分推理

图分析

PageRank

有向图上的马尔可夫链

平稳分布求解

幂法

表 含有隐变量概率模型的学习方法的特点

算法

基本原理

收敛性

收敛速度

实现难易度

适合问题

EM算法

迭代计算、后验概率估计

收敛于局部最优

较快

容易

简单模型

变分推理

迭代计算、后验概率近似估计

收敛于局部最优

较慢

较复杂

复杂模型

吉布斯抽样

随机抽样、后验概率估计

依概率收敛于全局最优

较慢

容易

复杂模型

表 矩阵分解的角度看话题模型

下载地址

https://github.com/fengdu78/lihang-code

参考资料:

[1] 《统计学习方法》: https://baike.baidu.com/item/统计学习方法/10430179

[2] 黄海广: https://github.com/fengdu78

[3] github: https://github.com/fengdu78/lihang-code

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-06-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器学习初学者 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 第22章 无监督学习方法总结
    • 无监督学习方法的关系和特点
      • 表 无监督学习方法的特点
      • 表 含有隐变量概率模型的学习方法的特点
      • 表 矩阵分解的角度看话题模型
    • 下载地址
      • 参考资料:
      领券
      问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档