在数据分析的过程中,我们会通过观察一系列的特征属性来对我们感兴趣的对象进行分析研究,一方面特征属性越多,越有利于我们细致刻画事物,但另一方面也会增加后续数据处理的运算量,带来较大的处理负担,我们应该如何平衡好这个问题?利用矩阵的特征值分解进行主成分分析就是一个很好的解决途径。
主成分分析是机器学习中的核心算法之一,本文将基于 Python 语言,为读者深入浅出的分析他的来龙去脉和本质内涵,相信读完此文,将扫清你心中的所有疑虑,今后在应用他解决实际问题的时候也能更加得心应手。
在对数据进行降维与压缩的运算处理过程中,有一类矩阵扮演了极其重要的角色,那就是对称矩阵。在线性代数的理论与实践中,我们将对称矩阵称之为“最重要的”矩阵丝毫不显夸张。
对称矩阵除了“自身与转置后的结果相等”这个最浅显、基本的性质外,还拥有许多重要的高级特性。
在对角化的运算讨论中,我们会发现实数对称矩阵一定能够对角化,并且能够得到一组标准正交的特征向量。
同时,任意一个矩阵 AA 同他自身的转置矩阵 ATAT 相乘都能得到一个对称矩阵,我们在本文中就将重点关注 AATAAT 这类对称矩阵并细致的讨论他的特征值所具有的重要性质,这些基础知识将会为后续的高级主题打下坚实的基础,希望大家不要错过。
本场 Chat 主要内容有: