机器学习7——降维,主成分分析

降维

无监督学习方法,减少数据量

主成分分析/PCA:

根本目的:降维,减少无关信息,减少总的特征变量,增加已有特征变量包含的信息。

将n维数据降到n-1维,损失1维数据,损失数据用样本到拟合线垂直距离表示,最小化误差,即使得方差最大化

与线性回归的区分:主成分分析主要原理是最小化投影误差,属于非监督学习中的降维,本质上是对输入特征的减少;线性回归的主要原理是最小化预测误差,属于监督学习中的分类,本质上是对输入特征的拟合。二者在仅损失函数的度量上有一定相似。下左图为线性回归误差,下右图为主成分分析误差

主成分分析的处理结果,可以对得出的特征向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息。(在遥感影像中体现为提取某一影像提取不同波段的影像,保留前几幅包含信息较多的影像,可以达到减少数据量,一定程度上去噪的效果)

猜你喜欢

转载自blog.csdn.net/nominior/article/details/88241100