自学了一段时间的机器学习后来写写自己的一些理解,首先理一下各种学习方法,以及它们的分类。
机器学习的主要算法分为:
一、监督学习(指样本带有标签,知道每个样本分属哪个类别):
主要包括分类和回归,但是很多方法其实可以用于分类,也可以用于回归,如决策树(DT)等。
- 分类—— 1、逻辑回归(Logister Regression);
2、决策树(Decision Tree)
3、K近邻(KNN);
4、朴素贝叶斯(Naive Bayes);
5、支持向量机(SVM);
6、神经网络(NN);
7、集成算法(Emsemble Learning)
Bagging(重复取样,并行训练),代表:随机森林, Boosting(提升,串行训练),代表:Adaboosting、Xgboosting, Stacking(聚合);
- 回归—— 1、线性回归(Linear Regression)
2、非线性回归
二、无监督学习(指样本没有标签,机器学习算法可以自行分类)
1、K-Means(K均值聚类算法);
2、Aporior算法,关联分析;
当然,算法用于有监督学习和无监督学习也不是确定的,有的算法可以用在监督学习的场景,也可以用于无监督学习 。
深度学习也属于机器学习范畴,但是由于它的重要性,另文论述。