阵列信号基础:矩阵代数部分

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_23947237/article/details/82714215

矩阵代数部分

1. 特征值与特征向量

特征值与特征向量的定义: A x = λ x ,其中 A n × n , x n × 1 0 。在复数域上 A n × n 一定对应 n 个特征值,故有如下等式成立:

A w i = λ i w i , i = 1 , 2 , , n

于是可得

A [ w 1 , w 2 , , w n ] = [ w 1 , w 2 , , w n ] [ λ 1 λ 2 λ n ] A W = W Σ A = W Σ W 1

其中, W n 个特征向量为标准正交基,满足 W T W = I ,即正交矩阵酉矩阵。注意到以上的特征分解,矩阵 A 必须为方阵。如果不满足方阵条件,即 A m × n ,此时对矩阵进行分解需要 SVD 了。

2. 奇异值分解

矩阵分解有很多方法,例如特征分解(Eigendecomposition)、LU分解(LU decomposition)、QR分解(QR decomposition)和极分解(Polar decomposition)等。奇异值分解(Singular Value Decomposition,SVD)是其中的一种矩阵分解方法:

A m × n = U m × m Σ m × n V n × n T

其中, U V 都是正交矩阵,在复数域内的话就是酉矩阵,即 U T U = I m × m , V T V = I n × n U V 的列分别叫做 A 左奇异向量右奇异向量 Σ 就是一个非负实对角矩阵,主对角线上的每个元素都称为奇异值。其中我们发现 A A T = U Σ V T V Σ U T = U Σ 2 U T ,可知 A A T 的特征值矩阵等于 A 的奇异值矩阵 Σ 的平方,于是特征值 λ 和 奇异值 σ 的关系即 σ i = λ i

求解 SVD 的步骤:

  1. A A T 的特征值和特征向量,用单位化的特征向量构成 U

  2. A T A 的特征值和特征向量,用单位化的特征向量构成 V

  3. A A T 或者 A T A 的特征值求平方根,然后构成 Σ

例如

A = ( 2 4 1 3 0 0 0 0 )

则有

A A T = ( 20 14 0 0 14 10 0 0 0 0 0 0 0 0 0 0 ) A A T x = λ x ( A A T λ I ) x = 0

求得 4 个特征值,对应的单位化过的特征向量整理为左奇异矩阵:

λ 1 29.8661 λ 2 0.1339 λ 3 = λ 4 = 0 U = ( 0.8174 0.5760 0 0 0.5760 0.8174 0 0 0 0 1 0 0 0 0 1 )

同样的过程求解 A T A 的特征值和特征向量,得到右奇异矩阵:

λ 1 29.8661 λ 2 0.1339 V = ( 0.4046 0.9145 0.9145 0.4046 )

矩阵 Σ 根据上面说的为特征值的平方根构成的对角矩阵:

( 5.4650 0 0 0.3660 0 0 0 0 )

最后得到:

A 4 × 2 = U 4 × 4 Σ 4 × 2 V 2 × 2 T ( 2 4 1 3 0 0 0 0 ) = ( 0.8174 0.5760 0 0 0.5760 0.8174 0 0 0 0 1 0 0 0 0 1 ) ( 5.4650 0 0 0.36596619 0 0 0 0 ) ( 0.40455358 0.9145143 0.9145143 0.40455358 ) T

对于奇异值,它跟我们特征分解中的特征值类似,在奇异值矩阵中也是按照从大到小排列,而且奇异值的减少特别的快,在很多情况下,前 10% 甚至 1% 的奇异值的和就占了全部的奇异值之和的 99% 以上的比例。

A m × n = U m × m Σ m × n V n × n T U m × k Σ k × k V k × n T

SVD 可以用于 PCA 降维,来做数据压缩和去噪。也可以用于推荐算法,也可以用于 NLP 中的算法,比如潜在语义索引(LSI)。

[U,S,V] = svd(A)

对于复矩阵 A m × n , 称 A H A n 个特征根 λ i 的算术平方根 σ i = λ i A 的奇异值。若记

Σ r = diag ( σ 1 , , σ r )

其中, σ 1 , , σ r A 的非零的全部的奇异值。则称 m × n 维矩阵

Σ = [ Σ r 0 0 0 ]

为矩阵 A 的奇异值矩阵。奇异值分解:对于 m × n 维矩阵 A ,则分别存在一个 m × m 维酉矩阵 U 和一个 n × n 维酉矩阵 V ,有

A = U Σ V H

3. 广义特征值/特征向量

A , B C n × n ν C n ,若标量 λ 和非零向量 ν 满足:

A ν = λ B ν , ν 0.

则称 λ 是矩阵 A 相对与矩阵 B 的广义特征值, ν 是与 λ 对应的广义特征向量。如果矩阵非满秩,那么 λ 就有可能任意值包括零。当矩阵为单位阵时上式就成为普通的特征值问题,因此可看作是对普通特征值问题的推广。当且仅当 ξ { A , B } 的广义特征值时, A ξ B 奇异,广义特征值是广义特征多项式 | A ξ B | = 0 的根。

4. Toeplitz 矩阵

定义一个具有 ( 2 n 1 ) 个元素的 n 阶矩阵

A = [ a 0 a 1 a 2 a n + 1 a 1 a 0 a 1 a n + 2 a 2 a 1 a 0 a n + 3 a n 1 a n 2 a n 3 a 0 ]

为 Toeplitz 矩阵,简称 T 矩阵,简记为 A = ( a j + i ) i , j = 0 n 。其中 T 矩阵完全由第 1 行和第 1 列的 ( 2 n 1 ) 个元素确定。

可见矩阵中位于任意一条平行于主对角线的直线上的元素全都是相等的,且关于副对角线对称。矩阵是斜对称矩阵,一般不是对称矩阵。在数据信息处理过程中,有限元素法、概率统计以及滤波理论等领域常常遇到 T 矩阵。

5. Hankel 矩阵

定义以下的 ( n + 1 ) 阶矩阵

H = [ a 0 a 1 a 2 a n a 1 a 2 a 3 a n + 1 a 2 a 3 a 4 a n + 2 a n a n + 1 a n + 2 a 2 n ]

为 Hankel 矩阵或正交对称矩阵。可见 H 矩阵完全由其第 1 行和第 n + 1 列的 ( 2 n + 1 ) 个元素确定。其中沿着所有垂直于主对角线的直线上有相同的元素。

6. Vandermonde 矩阵

定义具有以下形式的 m × n 阶矩阵

V ( a 1 , , a n ) = [ 1 1 1 1 a 1 a 2 a 3 a n a 1 2 a 2 2 a 3 2 a n 2 a 1 m 1 a 2 m 1 a 3 m 1 a n m 1 ]

为 Vandermonde 矩阵或范德蒙矩阵。范德蒙矩阵的转置也称为范德蒙矩阵。其中沿着所有垂直于主对角线的直线上有相同的元素。范德蒙行列式如下

A = ( 1 1 1 b c d b 2 c 2 d 2 ) | A | = ( b c ) ( b d ) ( c d ) B = ( 1 1 1 1 b c d e b 2 c 2 d 2 e 2 b 3 c 3 d 3 e 3 ) | B | = ( b c ) ( b d ) ( b e ) ( c d ) ( c e ) ( d e )

如果 V 矩阵满足 a i a j ,则 V 矩阵一定是非奇异的。

7. Kronecker 积

p × q 维矩阵 A = [ a i , j ] ,和 m × n 维矩阵 B = [ b l , k ] 的克罗内克积记作 A B ,它是一个 p m × q n 矩阵,形式为

A B = [ a 11 B a 12 B a 1 q B a 21 B a 22 B a 2 q B a p 1 B a p 2 B a p q B ]

8. Hadamard 积

m × n 维矩阵 A = [ a i , j ] ,和 m × n 维矩阵 B = [ b l , k ] 的哈达玛乘积记作 A B ,也称作 Schur 乘积。它仍然是一个 m × n 矩阵,形式为

A B = [ a 11 b 11 a 12 b 12 a 1 n b 1 n a 21 b 21 a 22 b 22 a 2 n b 2 n a m 1 b m 1 a m 2 b m 2 a m n b m n ]

9. M-P 广义逆

对于任意矩阵 A C m × n ,如果存在矩阵 G C m × n ,满足

A G A = A G A G = G ( A G ) H = A G ( G A ) H = G A

则称 G A 的 M-P 广义逆,记为 A 同时满足上述四个方程的广义可逆矩阵具有唯一性。部分满足上述四个方程的矩阵不唯一,每一种广义逆矩阵都包含着一类矩阵。

A C n m × n ,则 A = ( A H A ) 1 A H 。若 A C m m × n ,则 A = A H ( A H A ) 1

猜你喜欢

转载自blog.csdn.net/qq_23947237/article/details/82714215