前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >矩阵的奇异值分解

矩阵的奇异值分解

作者头像
狼啸风云
修改2022-09-03 21:53:27
1.1K0
修改2022-09-03 21:53:27
举报
文章被收录于专栏:计算机视觉理论及其实现

奇异值分解(singular value decomposition, SVD),是将矩阵分解成奇异值(singular vector)和奇异值(singular value)。通过奇异值分解,我们会得到一些与特征分解相同类型的信息。然而,奇异值分解有更广泛的应用,每个实数矩阵都有一个奇异值,但不一定都有特征分解。例如,非方阵的矩阵没有特征分解,这时我们只能使用奇异值分解。

我们使用特征分解去分析矩阵A时,得到特征向量构成的矩阵V和特征值构成的向量

\lambda
\lambda

,我们可以重新将A写作

\large A=Vdiag(\lambda )V^{-1}
\large A=Vdiag(\lambda )V^{-1}

奇异值分解是类似的,只不过这回我们将矩阵A分成三个矩阵的乘积:

\large A=UDV^T
\large A=UDV^T

假设A是一个

\large m\times n
\large m\times n

矩阵,那么U是一个

\large m\times m
\large m\times m

的矩阵,D是一个

\large m\times n
\large m\times n

的矩阵,V是一个

\large n \times n
\large n \times n

矩阵。这些矩阵中的每一个定义后都拥有特殊的结构。矩阵U和V都定义为正交矩阵,而矩阵D定义为对角矩阵。注意,D不一定是方阵。对角矩阵D对角线上的元素称为矩阵A的奇异值(singular value)。矩阵U的列向量称为左奇异向量(left singular vector),矩阵V的列向量称为右起义向量(right singular vector)。

事实上,我们可以用与A相关的特征分解去解释A的奇异值分解。A的左奇异向量(left singular vector)是

\large AA^T
\large AA^T

的特征向量。A的右奇异值(right singular value)是

\large A^TA
\large A^TA

的特征向量。A的非零奇异值是

\large A^TA
\large A^TA

的特征向量。A的非零奇异值是

\large A^TA
\large A^TA

特征值的平方根,同时也是

\large AA^T
\large AA^T

特征值的平方根。SVD最有用的一个性质可能是拓展矩阵求逆到非矩阵上。

本文参与 腾讯云自媒体同步曝光计划,分享自作者个人站点/博客。
原始发表:2019年09月09日,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档