机器学习总结(一)——主要算法

自学了一段时间的机器学习后来写写自己的一些理解,首先理一下各种学习方法,以及它们的分类。

机器学习的主要算法分为:

一、监督学习(指样本带有标签,知道每个样本分属哪个类别):

       主要包括分类和回归,但是很多方法其实可以用于分类,也可以用于回归,如决策树(DT)等。

  • 分类—— 1、逻辑回归(Logister Regression);

                       2、决策树(Decision Tree)                     

                       3、K近邻(KNN);

                       4、朴素贝叶斯(Naive Bayes);

                       5、支持向量机(SVM);

                       6、神经网络(NN);

                       7、集成算法(Emsemble Learning)

                            Bagging(重复取样,并行训练),代表:随机森林,                                                                                                                     Boosting(提升,串行训练),代表:Adaboosting、Xgboosting,                                                                                                 Stacking(聚合);

  • 回归—— 1、线性回归(Linear Regression)

                       2、非线性回归

二、无监督学习(指样本没有标签,机器学习算法可以自行分类)

      1、K-Means(K均值聚类算法);

      2、Aporior算法,关联分析;

当然,算法用于有监督学习和无监督学习也不是确定的,有的算法可以用在监督学习的场景,也可以用于无监督学习  。

深度学习也属于机器学习范畴,但是由于它的重要性,另文论述。         

猜你喜欢

转载自blog.csdn.net/chkay399/article/details/81812199