前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习day11降维

机器学习day11降维

作者头像
福贵
发布2020-08-25 09:53:06
4020
发布2020-08-25 09:53:06
举报
文章被收录于专栏:菜鸟致敬菜鸟致敬

降维

用一个低维度的向量表示原来高维度的特征,避免维度灾难。

降维方法

  • 主成分分析
  • 线性判别分析
  • 等距映射
  • 局部线性嵌入
  • 拉普拉斯特征映射
  • 局部保留投影

PCA最大方差理论

原始数据高维向量包含冗余与噪声。主成分分析(Principal Components Analysis,PCA)是最经典的降维方法,具有线性、非监督、全局等特点。 PCA需要定义主成分,设计提取主成分。 举个例子 如果在三维空间里面,一系列数据点过一个平面,如果我们使用xyz来表示,就需要用到三个维度。而如果我们将其放在一个平面,使用xy来表示,那么就只有两个维度,而且数据也不会有任何的丢失,这样,我们就完成了从降维,从三维到二维。 对于给定的一组数据

,其中所有向量均为列向量,中心化后表示为

,其中

PCA的求解方法。
  1. 对样本数据进行中心化处理。
  2. 求样本协方差矩阵。
  3. 对协方差矩阵进行特征值分解,将特征值从大到小排列。
  4. 取特征值前d大对应的特征向量

,通过以下映射将n维样本映射到d维

相关阅读:

机器学习day9-决策树

机器学习day8-SVM训练误差为0的解存在问题

机器学习day7-逻辑回归,分类问题

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-08-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 Python与MySQL 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 降维
    • 降维方法
      • PCA最大方差理论
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档