机器学习中回归模型对比

【1】普通线性回归:最小二乘法,使平方误差最小,适用于线性回归,容易受到异常值的影响。

无异常值情况:

有异常值情况:


【2】岭回归:添加了标准化,排除了异常值的干扰


【3】多项式回归,需要手动设置多项式次数

如果数据点本身的模式中带有自然的曲线,而线性模型是不能捕捉到这一点的,来看看多项式模型的效果



【4】决策树回归

还有一种带AdaBoost算法的决策树回归器,效果更好
决策树是一个树状模型,每个节点都做出一个决策,从而影响最终结果。叶子节点表示输出数值,分支表示根据输入特征做出的中间决策。 AdaBoost算法是指自适应增强(adaptive boosting)算法,这是一种利用其他系统增强模型准确性的技术。这种技术是将不同版本的算法结果进行组合,用加权汇总的方式获得最终结果,被称为弱学习器(weak learners)。 AdaBoost算法在每个阶段获取的信息都会反馈到模型中,这样学习器就可以在后一阶段重点训练难以分类的样本。这种学习方式可以增强系统的准确性。

【5】随机森林回归:是一个决策树集合

随机森林是一个决策树集合,它基本上就是用一组由数据集的若干子集构建的决策树构成,再用决策树平均值改善整体学习效果。(森林就是由很多树组成的)

【6】SVM既可以回归/预测也可以分类

主要适用于分类问题,可以做一些预测整数值的回归

猜你喜欢

转载自blog.csdn.net/zsc201825/article/details/81624024