前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >春节充电系列:李宏毅机器学习笔记13之无监督学习:主成分分析(PCA)

春节充电系列:李宏毅机器学习笔记13之无监督学习:主成分分析(PCA)

作者头像
WZEARW
发布2018-04-13 12:15:26
1.2K0
发布2018-04-13 12:15:26
举报
文章被收录于专栏:专知专知

【导读】我们在上一节的内容中已经为大家介绍了台大李宏毅老师的机器学习课程的半监督学习,这一节将主要针对讨论无监督学习:主成分分析(PCA)。本文内容涉及机器学习中无监督学习的若干主要问题:k-means,HAC,dimension reduction以及PCA。话不多说,让我们一起学习这些内容吧

春节充电系列:李宏毅2017机器学习课程学习笔记01之简介

春节充电系列:李宏毅2017机器学习课程学习笔记02之Regression

春节充电系列:李宏毅2017机器学习课程学习笔记03之梯度下降

春节充电系列:李宏毅2017机器学习课程学习笔记04分类(Classification)

春节充电系列:李宏毅2017机器学习课程学习笔记05之Logistic 回归

春节充电系列:李宏毅2017机器学习课程学习笔记06之深度学习入门

春节充电系列:李宏毅2017机器学习课程学习笔记07之反向传播(Back Propagation)

春节充电系列:李宏毅2017机器学习课程学习笔记08之“Hello World” of Deep Learning

春节充电系列:李宏毅2017机器学习课程学习笔记09之Tip for training DNN

春节充电系列:李宏毅2017机器学习课程学习笔记10之卷积神经网络

春节充电系列:李宏毅2017机器学习课程学习笔记11之Why Deep Learning?

春节充电系列:李宏毅2017机器学习课程学习笔记12之半监督学习(Semi-supervised Learning)

课件网址:

http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML17_2.html

http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML17.html

视频网址:

https://www.bilibili.com/video/av15889450/index_1.html

李宏毅机器学习笔记13 Unsupervised Learning : Principle Component Analysis(无监督学习:主成分分析)

Unsupervised learning指的训练集都没有label,unsupervisedlearning分为两种,只有输入的叫做cluster或者dimension reduction,只要输出的叫做generation。

1. K-means


最简单的算法是K-means,先随机找出k个中心,x离哪个中心最近输入哪个类,然后重新找出这些类的中心,一直循环下去直到收敛。

2. HAC


还有一个聚类方法叫做hierarchical agglomerative clustering(HAC),先找最相近的两个连在一起,然后取平均,一次类推(类似哈弗曼树),最后根据阈值一刀切,分类。

但这样直接分类太粗糙了,我们可以使用分布式表示来表达一个x。

3. dimension reduction


将一个高维空间的x在低维空间表示叫做dimension reduction。

因为有时候不需要那么高的维度来描述一张image,如下图就用一维就可以表示,10,20为旋转的度数。

Dimension reduction最简单的方法是featureselection,选取最有用的维度,拿掉没有用的维度。

4. PCA


然后另一个常见的方法就是PCA

当PCA只有一维的时候,我们是找出让z1区分度最大的w1,

同理,如果有两维的话,找出让除z1以外z2区分度最大的w2,

将var(z1)进行转化后可以得到下图所示的式子

利用lagrange multiplier我们可以发现得到的w1是S的特征向量,其对应的特征值α是最大值。

当降维到两维时,得到的w2是S第二大特征值对应的特征向量

降维后得到的z其协方差矩阵是对角矩阵

PCA可以应用在手写数字辨识中,手写数字是由一些basiccomponent组成的,每个component是一个vector

于是每张图像可以用这些component加权表示

我们的任务是找出k个component使得reconstruction error最小

矩阵化可以表示成这样

利用SVD发现X和X转置乘积的前k个最大特征值对应的特征向量就是其解

实际上PCA也可以表示出网络的形式,这种网络我们称为自编码器

但PCA也有缺点,多个类别的数据混合在一起的话用PCA会导致无法分开

将这个s形拉开是对于PCA做不到的

想了解更多关于PCA的知识参考以下资料

后台回复“LHY2017” 就可以获取 2017年李宏毅中文机器学习课程下载链接~

-END-

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-02-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 专知 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 将一个高维空间的x在低维空间表示叫做dimension reduction。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档