深度学习笔记之主成分分析

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/u012284960/article/details/81033845

1. Definitions(定义)

主成分分析(principal components analysis, PCA)简称PCA,是一种广泛应用于数据降维(data dimensionality reduction)、有损数据压缩(lossy data compression)、特征提取(feature extraction)以及数据可视化等的一种技术,也被称为Karhunen-Lo`eve变换。

关于PCA的定义主要有两种:

  • PCA是一种将数据投影到低维线性空间(principal subspace,主成子空间)使得投影之后的差异最大的正交投影。
  • PCA是一种最小化平均投影成本(average projection cost),投影点与数据点之间的均方距离最小,即数据损失精度最小。

2. Example (例子)

我们通过一个有损压缩的例子来介绍PCA。假设我们有 m 个数据点 { x ( 1 ) , , x ( m ) } ,其中数据维度为 x ( 1 ) R n 。因此,存储这些数据,需要 m × n 个单元。为了节省存储单元,我们考虑有损压缩。有损压缩,意味着我们可以用较少的存储单元储存数据,当然,这会损失些精度。因此我们要尽量的减少精度的损失。

我们将这些数据压缩成低维数据,即每一个 x ( i ) R n 都可以找到一个对应的 c R l , ( n l ) 。这里,我们用映射 f : R n R l 来表示,即 f ( x ) = c 。对应的解压缩,我们用函数 g : R l R n 来表示,即 x ^ = g ( f ( x ) )

为了解压缩尽量简单,我们限制解压缩是经过一个线性变换矩阵 D 来完成,则解压缩信号表示为 g ( c ) = D c 。这里,我们限制矩阵 D 是列正交矩阵(矩阵中列两两正交)。一般来说,增大 D 的能量,需要降低 c 的能量,因此,我们对 D 进行归一化处理(归一化与未归一化大部分情况的结果是相等的,但也存在一些情况下归一化的情况更好,因此通常我们会对 D 进行归一化处理)。

我们从矩阵乘法的角度来理解 x = D c 。通常,我们理解矩阵乘法从图的左图出发,但一般不会考虑右图的理解方式。这里,我们从右图的理解方式出发。由于 D 是列正交的,因此 { d i } i [ l ] 张成了一个 l 空间,而 { d i } i [ l ] 则是这个 R l 空间的一组完备正交基 x 在基 d i 上的投影即为 c i 。我们用 { d i } i [ l ] 线性表出 x

(3) x = i [ l ] c i d i

这里写图片描述
为了使得解压之后的数据损失尽可能少的精度,我们需要通过使得如下损失函数(也称,代价函数 cost function)最小来得到压缩数据的具体表达式
(4) R = x D c 2

损失函数是关于 c 的线性变换 ( x D c ) 的范数,因此是convex的(所有的范数均是convex function)。

通过导数工具,有

(5) R c = c ( x T x 2 x T D c + c T D T D c ) (6) = ( a ) c ( x T x 2 x T D c + c T c ) (7) = 2 D T x 2 c

其中 ( a ) 成立,由于 D 是列正交矩阵,因此 D T D = I l 。通过令偏导为0,我们找到函数的 驻点 c = D T x

给定解压矩阵 D ,我们从损失精度最小的角度出发,得到了压缩数据的表达式 c = D T x ,对应解压缩数据为 r ( x ) = D D T x 为此,我们仍需要确定 D 的形式。这里,我们仍然从损失精度最小的角度出发

(8) D = arg min D x D D T x s . t . D T D = I l

显然,我们要从从这个方程中解出 D 来是不可能的。

但是,我们是有 n x ( i ) 数据的,定义 X R m × n ,其中 X i : = ( x ( i ) ) T

(9) D = arg min D X T D D T X T F (10) = arg min D X X D D T F (11) = arg min D Tr [ ( X X D D T ) T ( X X D D T ) ] (12) = arg min D Tr ( X T X ) Tr ( D T X T X D ) (13) = arg max D Tr ( D T X T X D )

这里 D 是列正交矩阵,即 D T D = I l 。为使 Tr ( D T X T X D ) 最大,因此选择 X T X 最大的 l 个特征矢量作为 D 的列向量。对应地,

(14) X T X [ ξ 1 , , ξ l ] = [ ξ 1 , , ξ l ] Diag ( λ 1 , , λ l )

其中 ξ i 表示最大的 l 个特征值 λ i [ l ] 对应的特征矢量, [ l ] 表示最大的 l 个特征值组成的结合。因此 max Tr ( D T X T X D ) = i l λ i

Remarks:

  • 基于上述表述,我们知道矩阵 D 选择数据矩阵 X T X 的最大 l 个特征值 λ i [ l ] 所对应的特征向量 ξ i 作为其列,最大程度的保留了矩阵 X T X 的能量。
  • 这里所得到 D = [ ξ 1 , , ξ l ] 并不是驻点,如果 X T D D T X T F D 求偏导,并令偏导为零,得到 D = 0 ,显然这并不是最后的计算结果。

猜你喜欢

转载自blog.csdn.net/u012284960/article/details/81033845