首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

手推人工智能中的特征值和特征向量

特征值和特征向量这种在大学出现的知识,当时觉得没啥用,等到工作了才发现用处挺大,赶紧再复习下,恨不得能够重新坐回大学课堂好好学,最主要的有大学老师免费答疑。特征向量和特征值在计算机视觉和机器学习中有许多重要的应用。今天就做个读书笔记,分享给大家,字丑不要嘲笑,我也想写好,吸引一波粉丝。

内容目录

基本公式特征值计算特征向量计算几何表示

基本公式

矩阵[A]

特征值λ(读作:Lambda)拉姆达

特征矩阵:[X]

基本公式:

[A][X] = λ[X]

([A] - λ[I])[X] = 0

其中I是单位矩阵

特征值计算

[X]不是空向量,只有在(A-λI)不可逆的时候才能被定义。如果一个方阵是不可逆的,这意味着它的行列式必须等于零。因此,要找到A的特征向量,我们只需要搞定公式:

Det ([A] - λ[I]) = 0

代入A的值,求得特征值就行

特征向量计算

A有了,特征值有了,代入公式:([A] - λ[I])[X] = 0

计算就OK,注意特征向量只是代表方向或者斜率,所以最后特征向量其实有无数个笔记里面只是一个例子。

特征向量X1计算

特征向量X2计算

几何表示

特征向量仅仅代表一个方向(相应特征值表示幅度)

特征值的大小表示了椭圆的横轴和纵轴的长度

椭圆旋转后刚好能够让两个点(2维度矩阵构成的点)落在椭圆上。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181012G1WDUK00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券