首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

矩阵的瑰宝:深入挖掘特征值和特征向量,直观地看抽象概念

特征值和特征向量可能看起来是很抽象的概念,但它们在你周围的世界中扮演着不可或缺的角色。因为一切都是由数据定义的,矩阵是处理数据的最佳工具,而它们又是矩阵中的瑰宝,可以揭示矩阵的性质。理解特征值和特征向量是什么,如何推导它们,以及它们的应用,对于欣赏矩阵之美,以及更广泛地理解数据和数学在世界中扮演的角色,都是不可或缺的。

首先,让我们考虑二维向量,它有两个元素,每个元素对应于二维平面上的一个坐标。它们代表着从一个坐标到另一个坐标的运动。

当一个向量乘以一个矩阵时,就相当于应用了一个线性变换。这就产生了沿着两个向量拉伸(或挤压)坐标系的效果。例如,矩阵[[3,1],[1,2]]将x轴沿向量[3,1]和将y轴沿向量[1,2]对齐。视觉上,我们可以看出点(0,1)实际上映射到了(1,2)这可以通过将它乘以矩阵来实现。

假设有一个向量[-1,-1]乘上线性变换矩阵后,落在点[-4,-3]上。

向量长度(模)就是穿过这个向量的直线。当一个向量经过一个线性变换时,通常它会偏离原来的方向。

然而,有些类型的向量不会被矩阵改变方向。这就是这个矩阵的特征向量。当特征向量乘以这个矩阵时,特征向量只是乘以特征值,使这个向量的长度改变,而方向不会改变。

特征向量和特征值很少是整数。

由于特征向量的性质,简单地在相同或相反的方向缩放一个基向量就会得到另一个特征向量。

在三维空间中,这个矩阵描述了三个坐标轴——x、y和z的变换——对应于表示每个坐标所经历的变换的三个坐标。这就是为什么特征向量和特征值只对方阵定义,一个一般的n×n矩阵描述了n个轴的变换,每个轴对应一个有n个元素的坐标。

为了找到一个矩阵的特征向量,我们首先需要找到它的特征值。由特征值的定义,我们可以构造一个等式Ax = λx,其中A表示矩阵,λ表示特征值。将特征向量乘以变换矩阵x应该具有与将其乘以特征值的倍数相同的效果。

根据这个关系式,我们可以把两项都移到左边。为了使表达式A -λ有效(A是一个矩阵,而λ是一个数字),我们将λ乘以一个单位矩阵,单位矩阵不会作任何变换。

如上所示,存在无穷多个解。为了解决这个问题,我们使用行列式。行列式只是一个度量因子,在这个因子中,区域被一个变换矩阵拉伸。例如,考虑坐标平面上的一个标准正方形,其面积为一个正方形单元。

当空间被一个变换矩阵拉伸时,新的面积是四个正方形单位。因为面积增加了4倍,矩阵的行列式是4。

当行列式等于0时,正方形的面积被缩小到0,这意味着描述坐标轴位置的两个向量在同一条直线上。在这种情况下,所有的空间被扭曲成一条线。通过设置行列式必须等于零的要求,可以舍弃很多解,使方程更容易解。

因此,为了使先前设计的等式可解,首先必须满足矩阵的行列式等于零。

找到特征值是一个二次方程的任务。对于3维以上的矩阵,必须使用不同形式的行列式公式。

在这种情况下,矩阵[[1,4],[3,2]]的特征值分别为5和-2。这意味着当矩阵的特征向量乘以这个矩阵时,它们的向量长度将被拉长5倍和-2倍。通过将发现的特征值代入我们最初推导的方程,我们可以找到特征向量。

特征向量和特征值是矩阵的瑰宝。它体现了矩阵的本质。只要给定任意矩阵的特征向量和特征值,就可以很容易地完全重构原始矩阵。有了这个特殊的性质,特征向量几乎可以完全保证出现在任何有矩阵运算的地方。

例如,考虑主成分分析(PCA),一种常见的机器学习技术,它试图降低数据的维数,同时保留关键的统计度量,如方差和均值。例如,考虑一个100维的数据集,PCA将试图将其缩小为两个维。首先,算法构建一个协方差矩阵,它评估两个变量之间的相关性。矩阵作为一个整体定义了数据的形状。

协方差矩阵的特征向量用于在x轴和y轴之间沿方差最大的直线重新定向数据。本质上,特征向量相当于矩阵的“快照”,它告诉算法哪些区域需要放大,哪些区域需要缩小。从机器学习到拓扑,利用特征向量的关键特性提供有用的信息矩阵,压缩高维图像、优化搜索算法等。

也许特征向量和特征值如此特殊的原因是因为它的定义——向量的方向保持不变,而它们周围的空间是弯曲的。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200805A077AK00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券