机器学习之svm专题

参考文章:

SVM如何用于回归分析

手把手教你实现SVM算法(一) 四颗星

LR与SVM的异同

支持向量机通俗导论(理解SVM的三层境界)(1000多个赞。。)


SVM模型主要问题

SVM要点:

 **距离度量**,**支持向量**,**损失函数**,**对偶问题**,**拉格朗日乘法**,**核函数**,**软间隔**

SVM算法的主要优点有:

  1) 解决高维特征的分类问题和回归问题很有效,在特征维度大于样本数时依然有很好的效果。

  2) 仅仅使用一部分支持向量来做超平面的决策,无需依赖全部数据。

  3) 有大量的核函数可以使用,从而可以很灵活的来解决各种非线性的分类回归问题。

  4) 样本量不是海量数据的时候,分类准确率高,泛化能力强。

SVM算法的主要缺点有:

  1) 如果特征维度远远大于样本数,则SVM表现一般。

  2) SVM在样本量非常大,核函数映射维度非常高时,计算量过大,不太适合使用。

  3) 非线性问题的核函数的选择没有通用标准,难以选择一个合适的核函数。

  4) SVM对缺失数据敏感。

猜你喜欢

转载自blog.csdn.net/m0_37327467/article/details/88749148