SVD 奇异值分解理论推导

SVD 奇异值分解理论推导

这里对 SVD 奇异值分解的数学公式给出一个简单的笔记,融合了自己对于公式推导过程的理解。
和 PCA 主成分分析一样,SVD 其实也是使用待定系数法对任意形状矩阵分解以后的矩阵乘法因子做的推断。

  • PCA 主成分分析是对协方差矩阵进行特征值分解,待分解的矩阵是方阵,SVD 也用到了类似的过程,在结论上,SVD 给出了一个更好的结果,即对任意形状的矩阵都可以进行矩阵分解,但在分解的过程中,仍然构造出了方阵,PCA 主成分和 SVD 分解本质上,都用到了《线性代数》中最最基本的知识:对称矩阵的分解、特征值、特征向量等基本知识

假设矩阵 A A 可以写成如下表示:
A = U Σ V T , A=U \Sigma V^T,
其中 A R m × n A \in \mathbb{R}^{m \times n} U R m × m U \in \mathbb{R}^{m \times m} 是一个正交矩阵(酉矩阵), Σ R m × n \Sigma \in \mathbb{R}^{m \times n} 是一个“对角矩阵”, V R n × n V \in \mathbb{R}^{n \times n} 是一个正交矩阵(酉矩阵)。

下面构造对称矩阵(方阵):

A T A = ( V Σ T U T ) ( U Σ V T ) = V Σ T ( U T U ) Σ V T = V Σ T Σ V T A^TA = (V \Sigma^T U^T)(U \Sigma V^T)=V \Sigma^T (U^TU) \Sigma V^T=V \Sigma^T \Sigma V^T
A A T = ( U Σ V T ) ( V Σ T U T ) = U Σ ( V T V ) Σ T U T = U Σ Σ T U T AA^T = (U \Sigma V^T)(V \Sigma^T U^T)=U \Sigma (V^TV) \Sigma^T U^T=U \Sigma \Sigma^T U^T

其中 Σ T Σ R n × n \Sigma^T \Sigma \in \mathbb{R}^{n \times n} Σ Σ T R m × m \Sigma \Sigma^T \in \mathbb{R}^{m \times m} ,都是对角矩阵,它们除了形状不一样以外,非零的部分(都在主对角线上)是相等的。

A T A R n × n A^TA \in \mathbb{R}^{n \times n} A A T R m × m AA^T \in \mathbb{R}^{m \times m} 都是对称矩阵,因此,求解 U U V V 就变成了实对称矩阵的对角化问题

  • U U A A T AA^T 的特征向量按照列排成的矩阵(按照奇异值从大到小对应排列);
  • V V A T A A^TA 的特征向量按照列排成的矩阵(按照奇异值从大到小对应排列);
  • Σ \Sigma Σ T Σ \Sigma^T \Sigma 或者 Σ Σ T \Sigma \Sigma^T 中非零元素的平方根(这两个矩阵虽然形状不一样,但是非零元素的位置是一样的)。

在具体计算的时候,可以先得到矩阵 A A 的右奇异向量和奇异值,然后得到矩阵 A A 的左奇异向量,具体计算如下: A V = U Σ AV=U\Sigma ,此时认为 A A 已知, V V Σ \Sigma 已经算出,故 U = A V Σ 1 U=AV\Sigma^{-1} ,即 u i = 1 σ i A v i u_i = \frac{1}{\sigma_i}Av_i

SVD 的应用

1、在 PCA 降维中,实际上用到的是 SVD;

参考资料:
1、周志华《机器学习》附录A.3 P402

猜你喜欢

转载自blog.csdn.net/lw_power/article/details/82911855