关于范数【转载】

转自:https://blog.csdn.net/zouxy09/article/details/24971995

从这一篇中了解了:

-》机器学习的目的就是为了拟合数据,不仅是训练数据集,更是测试集,使拟合误差最小,但可能出现过拟合,所以需要正则化;

-》 正则化其中一条是使优化过程变得稳定快速,矩阵条件数(应该是输入矩阵X)对w的求解有较大影响。

-》L1范数与L2范数的差别。L1被称为Lasso,L2被称为Ridge。

-》使用L1是对特征进行选择,会产生较多0值,但是L2更多只是对特征进行。

L1会趋向于产生少量的特征,而其他的特征都是0,而L2会选择更多的特征,这些特征都会接近于0。Lasso在特征选择时候非常有用,而Ridge就只是一种规则化而已。

-》低秩矩阵的应用,强健PCA,A=低秩+噪声矩阵

-》PCA就是使用另一组基重新描述数据,并且能够尽可能揭示原有数据的关系。

——

这篇文章讲的真的相当好。

猜你喜欢

转载自www.cnblogs.com/BlueBlueSea/p/10630366.html