矩阵特征值、奇异值分解的理解

如果A\cdot x=\lambda x ,

就把 x 称为A的特征向量,一般x是单位向量,模为1。
A\cdot x 可以看做是A的每个行向量在x上的投影,最终得到的结果和A的行数相等的一个列向量。如果A的n X n的维度,那么也就是将A中的数据从n维降维到1维。 \lambda越大则说明了A中数据整体上来说在x方向上的投影的长度之和越大。矩阵A可能有好几个特征向量,把这些特征向量按照特征值从大到小排列,则取前三个,组成n X 3的向量,那么最终得到的结果是n X 3, 可以看做是将A中每行数据从n维降到了3 维。
奇异值对应的是非方阵的矩阵,思想是类似的。

猜你喜欢

转载自blog.csdn.net/xiaozisheng2008_/article/details/81157986