前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[吴恩达机器学习笔记]14降维5-7重建压缩表示/主成分数量选取/PCA应用误区

[吴恩达机器学习笔记]14降维5-7重建压缩表示/主成分数量选取/PCA应用误区

作者头像
演化计算与人工智能
发布2020-08-14 14:54:48
7070
发布2020-08-14 14:54:48
举报

参考资料 斯坦福大学 2014 机器学习教程中文笔记 by 黄海广

14.5 重建压缩表示 Reconstruction from Compressed Representation

  • 使用 PCA,可以把 1000 维的数据压缩到 100 维特征,或将三维数据压缩到一二维表示。所以,如果如果把 PCA 任务是一个压缩算法,应该能回到这个压缩表示之前的形式,回到原有的高维数据的一种近似。下图是使用 PCA 将样本
x^{(i)}映射到z^{(i)}

即是否能通过某种方法将 z 上的点重新恢复成使用

x_{(1)}和x_{(2)}

二维方式表示的数据。

方法

  • 使用
X_{appox}

表示重建样本的 n 维向量(n _ 1),使用

U_{reduce}

表示使用 PCA 算法时选取的 K 个特征向量组成的特征矩阵(n _ k),使用

Z

表示使用 PCA 降维后数据样本的新特征(k _ 1).有:

X*{appox}=U*{reduce} _ Z


14.6 主成分数量的选取 Choosing the number of pricipal components

平均平方映射误差(Average Squared Projection Error)和总变差(Total Variation)

  • PCA 的目的是减少 平均平方映射误差 ,,即是要减少 原始样本
x^{(i)}

通过重建后的样本

x_{appox}^{(i)}

(低维映射点) 的平方差的平均值

\frac{1}{m}\sum^{m}_{i=1}||x^{(i)}-x_{appox}^{(i)}||^{2}
  • 数据的总变差(Total Variation):定义为原始数据样本的长度的均值:
\frac1}{m}\sum^{m}_{i=1}|x^{(i)||^{2}

意为:平均来看原始数据距离零向量的距离。

K 值选择的经验法则

  • 平均平方映射误差总变差 的比值尽可能小的情况下 (一般选择 0.01) 选择尽可能小的 K 值, 对于此比例小于 0.01,专业来说:保留了数据 99%的差异性(99% of variance is retained)
选择了参数 K,并且 99%的差异性得以保留
  • 常用的其他数值也有 0.05 和 0.10,则 95%和 90%的差异性得以保留。

主成分数量选择算法

效率较低的方法

先令 K=1,然后进行主要成分分析,获得

U_reduce

z^{(1)},z^(2),...z^{(m)}

,然后计算其低维映射点

x_{appox}^{(i)}

,然后计算 平均平方映射误差总变差 的比值是否小于 1%。如果不是的话再令 K=2,如此类推,直到找到可以使得比例小于 1%的 最小 K 值

更好的方法
  • 还有一些更好的方式来选择 K,当计算协方差矩阵 sigma,调用“svd”函数的时候,我们获得三个参数:
[U, S, V] = svd(sigma)

,其中 U 是特征向量,而 S 是一个对角矩阵,对角线的元素为

S_{11},S_{22},S_{33}...S_{nn}

而矩阵的其余元素都是 0。

  • 可以证明的是(在此只说明公式不给出证明过程),以下两个式子相等,即:

所以,原有的条件可以转化为:

根据上式找出满足条件的最小的 K 值即可。


14.7 主成分分析法的应用建议

测试集和验证集应使用和训练集一样的特征向量

U_{reduce}
  • 假使我们正在针对一张 100×100 像素的图片进行某个计算机视觉的机器学习,即总共有 10000 个特征。
  1. 第一步是运用主要成分分析将数据压缩至 1000 个特征
  2. 然后对训练集运行学习算法
  3. 在预测时,采用训练集上学习而来的
U_{reduce}

将输入的特征 x 转换成特征向量 z,然后再进行预测

  • Note 如果我们有交叉验证集合测试集,也采用对训练集学习而来的
U_{reduce}

PCA 不是用于解决过拟合的方法

  • 一个常见错误使用主要成分分析的情况是,将 PCA 用于减少过拟合(通过减少特征的数量)。这样做 非常不好,应该使用正则化化处理。原因在于主要成分分析只是近似地丢弃掉一些特征,它并不考虑任何与 结果变量 y(即预测的标签) 有关的信息,因此可能会丢失非常重要的特征。PCA 毕竟无监督学习的方法,任何的特征,无论是输入属性还是标签属性,其都一样对待,没有考虑到输入信息的减少对标签 y 的影响,通过 PCA 舍弃掉一部分输入属性却没有对标签做任何补偿。然而当我们进行正则化化处理时,由于逻辑回归或者神经网络或者 SVM 会考虑到正则化及输入属性的改变对结果变量(预测标签)的影响,并对其作出反馈,所以正则化不会丢掉重要的数据特征。

PCA 不是必要的方法

  • PCA 是当数据量大,所以要 压缩数据维度,减少数据占用内存,加快训练速度 时使用的,或者是需要通过 数据可视化 理解数据时使用的, 而 不是一种必需的方法。默认把 PCA 加入到机器学习系统中而不考虑不加入 PCA 时系统的表现是不对的。由于 PCA 会损失掉一部分数据,也许正是数据中十分关键的维度 ,所以机器学习系统应当首先 不考虑 PCA 的使用 ,而使用常规的训练方法, 只在有必要的时候(算法运行太慢或者占用太多内存) 才考虑采用主要成分分析。

参考资料

[1]

吴恩达老师课程原地址: https://study.163.com/course/courseMain.htm?courseId=1004570029

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-06-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 DrawSky 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 14.5 重建压缩表示 Reconstruction from Compressed Representation
    • 方法
    • 14.6 主成分数量的选取 Choosing the number of pricipal components
      • 平均平方映射误差(Average Squared Projection Error)和总变差(Total Variation)
        • K 值选择的经验法则
          • 选择了参数 K,并且 99%的差异性得以保留
        • 主成分数量选择算法
          • 效率较低的方法
          • 更好的方法
      • 14.7 主成分分析法的应用建议
        • 测试集和验证集应使用和训练集一样的特征向量
          • PCA 不是用于解决过拟合的方法
            • PCA 不是必要的方法
              • 参考资料
              领券
              问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档