入门机器学习(三)

为什么要降数据维度?

将高维度的数据降低维度,甚至使其在低维线性可分,就是计算机下一步要做的事情。
什么叫数据的高维度,在提取多个样本后,统一处理之前需要对数据做一些reshape至一维处理,然后通过一定方式连接起来,这样多个图特征就转成二维矩阵了。

计算机需要解决的问题,变成简单的:
AX+B=Y的问题了,X是输入,Y是输出标签,A是权重函数,B是偏移量。

对于手写字体训练的28乘以28的图片,原始有784个特征,那么按照这个矩阵方程,需要那么大数量的权重参数和偏移量需要细调,而且需要迭代成千上万次,只是一张图。

这里写图片描述这里写图片描述这里写图片描述这里写图片描述

仔细观察这些手写的数字,我们会发现相邻像素具有很多相似的信息,完全可以通过某些方式,将这些图片的特征表述出来,用更少维度的特征。这里的维度,是数据量的大小表述。

低维度非线性化

原始图片得到的是灰度值,我们直接把灰度提取出来,就算在三维图显示,也很难观察它们之间差异;
在提取部分特征后,再在高维图显示,我们可以看到这些数据分布会有一些聚类性质。

这里写图片描述

模拟三维空间作多维,我们发现,在经过特征提取后,各个样本分布可能会达到这样的效果:多维空间可分。
然而计算机更擅长的,是做线性化处理。

Y=AX3+B*X2+CX+D

一个很简单的多维函数,图像那块,可能是百次方后的可分,如果你能把特征转为这种分布,把诸如X^3这种空间维度高的函数,或者tan、e指数等等,转为Z,W这种一维空间变量,是不是解决了高维度线性可分的问题。
而发现存在类似的多维空间分布,大概就是在做特征表述吧。

猜你喜欢

转载自blog.csdn.net/weixin_39437164/article/details/82663792
今日推荐