PCA,LDA,SVD的定义与联系

如果不降维,将导致 数据分布在一个极小的区域内。也叫维度灾难。比如说,球的体积是 v 正比于 R^3。在R/2的同心球,体积正比于(R/2)^3。同心小球是全球的体积八分之一。如果是多维球,球的大部分体积 分布在球表面内侧的“很薄”的一层,比如千/万维的话….所以要降维。不降维,高维特征没啥用,比如人脸识别….

PCA是无类别信息,不知道样本属于哪个类,用PCA,通常对全体数据操作。PCA的计算过程:
1,求数据的协方差矩阵
2,求所得协方差矩阵的特征值和特征向量(用SVD,SVD比直接特征值分解计算量小)
3,保留最重要的前R个特征值
4,降到R维后,减少了数据的冗余

LDA有类别信息,投影到类内间距最小and类间间距最大…也有一些算法,先用PCA搞一遍,再用LDA搞一遍,也有相反。反正有论文是这么搞的,至于是不是普适,要看具体问题。具体问题具体分析,这是最重要的…

参考链接:
1,https://www.zhihu.com/question/35666712
2,https://blog.csdn.net/zjm750617105/article/details/52104850
3,https://www.cnblogs.com/pinard/p/6244265.html
4,https://blog.csdn.net/Dark_Scope/article/details/53150883
5,https://www.zhihu.com/question/38319536

猜你喜欢

转载自blog.csdn.net/cs24k1993/article/details/80000875