个人机器学习笔记之PCA降维

吴恩达机器学习笔记(7)——PCA降维

机器学习个人笔记,学习中水平有限,内容如有缺漏欢迎指正。

序言

降维的目的是减少数据的维度(将数据投影到低维的空间),或者说减少数据中信息量少的部分,从而加速训练过程,属于无监督学习

代码

代码很简单

import numpy as np
from sklearn.decomposition import pca

origin=np.random.random([10,2])#生成二维随机数据点

pca=pca.PCA(n_components=1)
pca.fit(origin)

x_pca=pca.transform(origin)#执行降维,2维到1维

print(origin)
print(x_pca)

运行结果

降维前
在这里插入图片描述
降维后
在这里插入图片描述

公式部分(?)

视频并没有讲解PCA的实现公式,但是告诉了我们是通过最小化每个数据点与低维空间的距离和来实现PCA
图片来自学习视频
在这里插入图片描述

学习视频

降维

其他笔记

猜你喜欢

转载自blog.csdn.net/ardepomy/article/details/88780482