吴恩达机器学习笔记(十五)

原创博客,转载请注明出处!

1、目标I :数据压缩

开始谈论第二种类型的无监督学习问题,称为降维。有几个不同的的原因使你可能想要做降维。一是数据压缩,后面我们会看了一些视频后,数据压缩不仅允许我们压缩数据,因而使用较少的计算机内存或磁盘空间,它还能让我们加快我们的学习算法

假设我们未知两个的特征:x1长度:用厘米表示;x2:是用英寸表示同一物体的长度。这给了我们高度冗余表示,也许我们想要做的是减少数据到一维,只有一个数测量这个长度。

将数据从二维降至一维:两种仪器对同一个东西测量的结果不完全相等(由于误差、精度等),而将两者都作为特征有些重复,因而,我们希望将这个二维的数据降至一维

将数据从三维降至二维: 这个例子中我们要将一个三维的特征向量降至一个二维的特征向量。过程是与上面类似的,我们将三维向量投射到一个二维的平面上,强迫使得所有的数据都在同一个平面上,降至二维的特征向量。

这样的处理过程可以被用于把任何维度的数据降到任何想要的维度,例如将1000维的特征降至100维。

2、目标II :可视化

降维的第二个作用:数据可视化

在许多及其学习问题中,如果我们能将数据可视化,我们便能寻找到一个更好的解决方案,降维可以帮助我们。

假使我们有有关于许多不同国家的数据,每一个特征向量都有50个特征(如GDP,人均GDP,平均寿命等)。如果要将这个50维的数据可视化是不可能的。

使用降维的方法将其降至2维,我们便可以将其可视化了。

可视化

这样做的问题在于,降维的算法只负责减少维数,新产生的特征的意义就必须由我们自己去发现

3、主成分分析问题规划1

主成分分析(PCA)是最常见的降维算法。

PCA中,我们要做的是找到一个方向向量,当我们把所有的数据都投射到该向量上时,我们希望投射平均均方误差能尽可能地小。方向向量是一个经过原点的向量,而投射误差是从特征向量向该方向向量作垂线的长度。

多维也是类似

注意PCA与线性回归是两种不同的算法。PCA最小化的是投射误差,而线性回归尝试的是最小化预测误差。线性回归的目的是预测结果,而主成分分析不作任何预测。

PCA是每个特征量同等对待

PCA将 n 个特征降维到 k 个,可以用来进行数据压缩,如果100维的向量最后可以用10维来表示,那么压缩率为90%。同样图像处理领域的KL变换使用PCA做图像压缩。但PCA 要保证降维后,还要保证数据的特性损失最小。

PCA技术的一大好处是对数据进行降维的处理。我们可以对新求出的“主元”向量的重要性进行排序,根据需要取前面最重要的部分,将后面的维数省去,可以达到降维从而简化模型或是对数据进行压缩的效果。同时最大程度的保持了原有数据的信息。

PCA技术的一个很大的优点是,它是完全无参数限制的。在PCA的计算过程中完全不需要人为的设定参数或是根据任何经验模型对计算进行干预,最后的结果只与数据相关,与用户是独立的。

但是,这一点同时也可以看作是缺点。如果用户对观测对象有一定的先验知识,掌握了数据的一些特征,却无法通过参数化等方法对处理过程进行干预,可能会得不到预期的效果,效率也不高。

4、主成分分析问题规划2

PCA 从 n 维减少到 k 维:

第一步是均值归一化。我们需要计算出所有特征的均值,然后令 xj = xj - μj 。如果特征是在不同的数量级上,我们还需要将其除以标准差 σ²。

第二步是计算协方差矩阵Σ

第三步是计算协方差矩阵 Σ 的特征向量:

在 Octave 里我们可以利用奇异值分解singular value decomposition)来求解

[U, S, V]= svd(sigma)

对于一个 n×n 维度的矩阵,上式中的返回值 U 是一个具有与数据之间最小投射误差的方向向量构成的矩阵。如果我们希望将数据从 n 维降至 k 维,我们只需要从 U 中选取前 k 个向量,获得一个 n×k 维度的矩阵,我们用U_reduce表示,然后通过如下计算获得要求的新特征向量zi

其中 x 是 n×1维的,因此结果为 k×1 维度。注,我们不对方差特征进行处理。

总结:

5、主成分数量选择

主要成分分析是减少投射的平均均方误差:

我们希望在平均均方误差与训练集方差的比例尽可能小的情况下选择尽可能小的 k 值。

如果我们希望这个比例小于1%,就意味着原本数据的偏差有99%都保留下来了,如果我们选择保留95%的偏差,便能非常显著地降低模型中特征的维度了。

我们可以先令 k=1 ,然后进行主要成分分析,获得 U_{reduce} 和 z ,然后计算比例是否小于1%。如果不是的话再令 k=2 ,如此类推,直到找到可以使得比例小于1%的最小 k  值(原因是各个特征之间通常情况存在某种相关性)。

还有一些更好的方式来选择$k$,当我们在Octave中调用“svd”函数的时候,我们获得三个参数:

[U, S, V] = svd(sigma)

其中的 返回值 S 是一个 n×n 的矩阵,只有对角线上有值,而其它单元都是0,我们可以使用这个矩阵来计算平均均方误差与训练集方差的比例

6、压缩重现

之前谈论PCA作为压缩算法。在那里你可能需要把1000维的数据压缩100维特征,或具有三维数据压缩到一二维表示。所以,如果这是一个压缩算法,应该能回到这个压缩表示,回到你原有的高维数据的一种近似

所以,给定的 zi,怎么回到你原来的表示 xi 呢?

这个过程称为原始数据的重构

7、应用PCA的建议

假使我们正在针对一张 100×100像素的图片进行某个计算机视觉的机器学习,即总共有10000 个特征。

①第一步是运用主要成分分析将数据压缩至1000个特征

②然后对训练集运行学习算法

③在预测时,采用之前学习而来的 U_{reduce} 将输入的特征 x 转换成特征向量 z ,然后再进行预测

注:如果我们有交叉验证集合测试集,也采用对训练集学习而来的 U_{reduce} 。

错误的主要成分分析情况:

一个常见错误使用PCA的情况是,将其用于减少过拟合(减少了特征的数量)。这样做非常不好,不如尝试正则化处理。原因在于主要成分分析只是近似地丢弃掉一些特征,它并不考虑任何与结果变量y有关的信息,因此可能会丢失非常重要的特征。然而当我们进行正则化处理时,会考虑到结果变量,不会丢掉重要的数据。

另一个常见的错误是默认地将PCA作为学习过程中的一部分,这虽然很多时候有效果,最好还是从所有原始特征开始,只在有必要的时候(算法运行太慢或者占用太多内存)才考虑采用主要成分分析。

猜你喜欢

转载自blog.csdn.net/kk123k/article/details/85228815
今日推荐