コレクション:機械学習の問題27、13と4つのアルゴリズムの学習

多くの機械学習アルゴリズム。人々は混乱している多くの回は、多くのアルゴリズムは、アルゴリズムのクラスであり、そしていくつかのアルゴリズムが他のアルゴリズムから引き出されます。ここでは、最初の学習の仕方で、二つの方法であなたを教えに来て、第二の態様は、分類アルゴリズムです。


まず、四大学習


1.管理された学習

 

?wx_fmt = JPEG&wxfrom = 5&wx_lazy = 1

教師あり学習では、入力データは、「トレーニングデータ」と呼ばれ、トレーニングデータの各セットは、明確なアイデンティティや結果を持っている、のような「非スパムメッセージアンチスパムシステムに、」ジャンクメール「」デジタル手書き文字認識"1"、 "2"、 "3"、 "4" 等が挙げられます。


ビルド予測モデルは、学習プロセスを構築するために教師あり学習すると、予測された結果は、モデルの予測結果が所望の精度を達成するためにまで、予測モデルを調整し続けて、「トレーニングデータ」は、実際の結果と比較しました。


このような分類と回帰の問題などの一般的なシナリオの教師付き学習。一般的なアルゴリズムロジスティック回帰(ロジスティック回帰)および(バックプロパゲーションニューラルネットワーク)におけるニューラルネットワーク。


2.強化学習

?wx_fmt = JPEG

この学習モードでは、直接バックモデルにのみ権利と強化学習でモデルをチェックする間違った方法として、入力データ、入力データとして監修モデル、このモデルの必須とは異なり、モデルへのフィードバックとしてデータを入力します。すぐに調整してください。


一般的なシナリオは、動的システムとロボット制御が含まれます。一般的なアルゴリズムは、Q学習と学習の時間差(時間差学習)が含まれます。 


3.教師なし学習

?wx_fmt = JPEG

教師なし学習では、データは具体的に特定されていない、学習モデルは、データの内部構造の一部を推測することです。一般的なシナリオは、相関ルール学習、およびクラスタリングが含まれます。一般的なアルゴリズムは、アプリオリアルゴリズムとK平均アルゴリズムが含まれます。


4.半教師あり学習

?wx_fmt = JPEG

この学習モードでは、入力されたデータは、一部が特定されていない、セクションを特定し、この学習モデルを予測するために使用することができますが、最初のモデルは、予測のためのデータの合理的な組織ように、内部データ構造を学ぶために。


应用场景包括分类和回归,算法包括一些对常用监督式学习算法的延伸,这些算法首先试图对未标识数据进行建模,在此基础上再对标识的数据进行预测。如图论推理算法(Graph Inference)或者拉普拉斯支持向量机(Laplacian SVM.)等。


二、13种常用算法


根据算法的功能和形式的类似性,我们可以把算法分类,比如说基于树的算法,基于神经网络的算法等等。当然,机器学习的范围非常庞大,有些算法很难明确归类到某一类。


1.回归算法

?wx_fmt = JPEG

回归算法是试图采用对误差的衡量来探索变量之间的关系的一类算法。回归算法是统计机器学习的利器。在机器学习领域,人们说起回归,有时候是指一类问题,有时候是指一类算法,这一点常常会使初学者有所困惑。


常见的回归算法包括:最小二乘法(Ordinary Least Square),逻辑回归(Logistic Regression),逐步式回归(Stepwise Regression),多元自适应回归样条(Multivariate Adaptive Regression Splines)以及本地散点平滑估计(Locally Estimated Scatterplot Smoothing)。

?wx_fmt = PNG

2. 正则化方法

 ?wx_fmt = JPEG

正则化方法是其他算法(通常是回归算法)的延伸,根据算法的复杂度对算法进行调整。正则化方法通常对简单模型予以奖励而对复杂算法予以惩罚。


常见的算法包括:Ridge Regression, Least Absolute Shrinkage and Selection Operator(LASSO),以及弹性网络(Elastic Net)。


3.决策树学习

?wx_fmt = JPEG

决策树算法根据数据的属性采用树状结构建立决策模型, 决策树模型常常用来解决分类和回归问题。


常见的算法包括:分类及回归树(Classification And Regression Tree, CART), ID3 (Iterative Dichotomiser 3), C4.5, Chi-squared Automatic Interaction Detection(CHAID), Decision Stump, 随机森林(Random Forest), 多元自适应回归样条(MARS)以及梯度推进机(Gradient Boosting Machine, GBM)


4.基于实例的算法

 ?wx_fmt = JPEG

基于实例的算法常常用来对决策问题建立模型,这样的模型常常先选取一批样本数据,然后根据某些近似性把新数据与样本数据进行比较。通过这种方式来寻找最佳的匹配。因此,基于实例的算法常常也被称为“赢家通吃”学习或者“基于记忆的学习”。


常见的算法包括 k-Nearest Neighbor(KNN), 学习矢量量化(Learning Vector Quantization, LVQ),以及自组织映射算法(Self-Organizing Map , SOM)。


5.贝叶斯方法

?wx_fmt = JPEG

贝叶斯方法算法是基于贝叶斯定理的一类算法,主要用来解决分类和回归问题。


常见算法包括:朴素贝叶斯算法,平均单依赖估计(Averaged One-Dependence Estimators, AODE),以及Bayesian Belief Network(BBN)。


6.聚类算法

 ?wx_fmt = JPEG

聚类,就像回归一样,有时候人们描述的是一类问题,有时候描述的是一类算法。聚类算法通常按照中心点或者分层的方式对输入数据进行归并。所以的聚类算法都试图找到数据的内在结构,以便按照最大的共同点将数据进行归类。


常见的聚类算法包括 k-Means算法以及期望最大化算法(Expectation Maximization, EM)。


7.降低维度算法

 ?wx_fmt = JPEG

像聚类算法一样,降低维度算法试图分析数据的内在结构,不过降低维度算法是以非监督学习的方式试图利用较少的信息来归纳或者解释数据。这类算法可以用于高维数据的可视化或者用来简化数据以便监督式学习使用。


常见的算法包括:主成份分析(Principle Component Analysis, PCA),偏最小二乘回归(Partial Least Square Regression,PLS), Sammon映射,多维尺度(Multi-Dimensional Scaling, MDS),  投影追踪(Projection Pursuit)等。


8.关联规则学习

 ?wx_fmt = JPEG

关联规则学习通过寻找最能够解释数据变量之间关系的规则,来找出大量多元数据集中有用的关联规则。


常见算法包括 Apriori算法和Eclat算法等。


9.遗传算法(genetic algorithm)

?wx_fmt = JPEG

遗传算法模拟生物繁殖的突变、交换和达尔文的自然选择(在每一生态环境中适者生存)。


它把问题可能的解编码为一个向量,称为个体,向量的每一个元素称为基因,并利用目标函数(相应于自然选择标准)对群体(个体的集合)中的每一个个体进行评价,根据评价值(适应度)对个体进行选择、交换、变异等遗传操作,从而得到新的群体。


遗传算法适用于非常复杂和困难的环境,比如,带有大量噪声和无关数据、事物不断更新、问题目标不能明显和精确地定义,以及通过很长的执行过程才能确定当前行为的价值等。


10.人工神经网络

?wx_fmt = JPEG

人工神经网络算法模拟生物神经网络,是一类模式匹配算法。通常用于解决分类和回归问题。人工神经网络是机器学习的一个庞大的分支,有几百种不同的算法。


(其中深度学习就是其中的一类算法,我们会单独讨论),重要的人工神经网络算法包括:感知器神经网络(Perceptron Neural Network), 反向传递(Back Propagation), Hopfield网络,自组织映射(Self-Organizing Map, SOM)。


11.深度学习

 ?wx_fmt = JPEG

深度学习算法是对人工神经网络的发展。 在近期赢得了很多关注, 特别是百度也开始发力深度学习后, 更是在国内引起了很多关注。   在计算能力变得日益廉价的今天,深度学习试图建立大得多也复杂得多的神经网络。很多深度学习的算法是半监督式学习算法,用来处理存在少量未标识数据的大数据集。


常见的深度学习算法包括:受限波尔兹曼机(Restricted Boltzmann Machine, RBN), Deep Belief Networks(DBN),卷积网络(Convolutional Network), 堆栈式自动编码器(Stacked Auto-encoders)。


12.基于核的算法

 ?wx_fmt = JPEG

基于核的算法中最著名的莫过于支持向量机(SVM)了。 基于核的算法把输入数据映射到一个高阶的向量空间, 在这些高阶向量空间里, 有些分类或者回归问题能够更容易的解决。 


常见的基于核的算法包括:支持向量机(Support Vector Machine, SVM), 径向基函数(Radial Basis Function ,RBF), 以及线性判别分析(Linear Discriminate Analysis ,LDA)等。


13.集成算法

?wx_fmt = JPEG

集成算法用一些相对较弱的学习模型独立地就同样的样本进行训练,然后把结果整合起来进行整体预测。集成算法的主要难点在于究竟集成哪些独立的较弱的学习模型以及如何把学习结果整合起来。这是一类非常强大的算法,同时也非常流行。


常见的算法包括:Boosting, Bootstrapped Aggregation(Bagging), AdaBoost,堆叠泛化(Stacked Generalization, Blending),梯度推进机(Gradient Boosting Machine, GBM),随机森林(Random Forest),GBDT(Gradient Boosting Decision Tree)。


机器学习(Machine Learning)有不少有用的流程图和机器学习算法表。 这里只包括所发现的最全面的速查表。


三、27张机器学习速查表


神经网络架构(NeuralNetwork Architectures)


来源:http://www.asimovinstitute.org/neural-network-zoo/

?wx_fmt = PNG

Microsoft Azure算法流程图(Microsoft AzureAlgorithm Flowchart)

来源:https://docs.microsoft.com/en-us/azure/machine-learning/machine-learning-algorithm-cheat-sheet

?wx_fmt = PNG

  

SAS算法流程图(SAS Algorithm Flowchart)

来源:http://blogs.sas.com/content/subconsciousmusings/2017/04/12/machine-learning-algorithm-use/


?wx_fmt = PNG

?wx_fmt = PNG

 

算法总结(AlgorithmSummary)

来源:http://machinelearningmastery.com/a-tour-of-machine-learning-algorithms/

?wx_fmt = PNG

 

来源: http://thinkbigdata.in/best-known-machine-learning-algorithms-infographic/

 

?wx_fmt = JPEG

 

算法优缺点(AlgorithmPro/Con)

来源:https://blog.dataiku.com/machine-learning-explained-algorithms-are-your-friend

?wx_fmt = JPEG

 

Python

当然Python有很多在线资源。 对于本节只包括所遇到的最好的速查表。

 

算法(Algorithms)

来源:https://www.analyticsvidhya.com/blog/2015/09/full-cheatsheet-machine-learning-algorithms/


?wx_fmt = PNG

 

Python基础(Python Basics)

来源:http://datasciencefree.com/python.pdf

?wx_fmt = PNG


来源:https://www.datacamp.com/community/tutorials/python-data-science-cheat-sheet-basics#gs.0x1rxEA

?wx_fmt = PNG

 

Numpy

来源:https://www.dataquest.io/blog/numpy-cheat-sheet/


?wx_fmt = PNG

 

来源:http://datasciencefree.com/numpy.pdf

?wx_fmt = PNG

 

来源:https://www.datacamp.com/community/blog/python-numpy-cheat-sheet#gs.Nw3V6CE

?wx_fmt = PNG

 

来源:https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/numpy/numpy.ipynb

?wx_fmt = PNG

 

Pandas

来源:http://datasciencefree.com/pandas.pdf

?wx_fmt = PNG

 

来源:https://www.datacamp.com/community/blog/python-pandas-cheat-sheet#gs.S4P4T=U


?wx_fmt = PNG

 

来源:https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/pandas/pandas.ipynb


?wx_fmt = PNG


Matplotlib

来源:https://www.datacamp.com/community/blog/python-matplotlib-cheat-sheet

?wx_fmt = PNG

 

来源:https://github.com/donnemartin/data-science-ipython-notebooks/blob/master/matplotlib/matplotlib.ipynb

?wx_fmt = PNG

 

Scikit Learn

来源:http://peekaboo-vision.blogspot.de/2013/01/machine-learning-cheat-sheet-for-scikit.html

?wx_fmt = PNG



来源:http://peekaboo-vision.blogspot.de/2013/01/machine-learning-cheat-sheet-for-scikit.html

?wx_fmt = PNG


来源:https://github.com/rcompton/ml_cheat_sheet/blob/master/supervised_learning.ipynb

?wx_fmt = PNG

 

Tensorflow

来源:https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/1_Introduction/basic_operations.ipynb

?wx_fmt = PNG

 

Pytorch

来源:https://github.com/bfortuner/pytorch-cheatsheet

?wx_fmt = PNG


数学(Math)

如果你真的想了解机器学习,那么需要对统计(特别是概率)、线性代数和微积分的理解打下坚实的基础。在本科期间我辅修数学,但是我肯定需要复习这些知识。 这些速查表提供了大多数需要了解最常见的机器学习算法背后的数学。

 

概率(Probability)

来源:http://www.wzchen.com/s/probability_cheatsheet.pdf

?wx_fmt = PNG

 

线性代数(Linear Algebra)

来源:https://minireference.com/static/tutorials/linear_algebra_in_4_pages.pdf

?wx_fmt = PNG

 

统计学(Statistics)

来源:http://web.mit.edu/~csvoss/Public/usabo/stats_handout.pdf

?wx_fmt = PNG

 

微积分(Calculus)

出典:のhttp://tutorial.math.lamar.edu/getfile.aspxファイル= B、41、N?

?wx_fmt = PNG

リリース9件のオリジナルの記事 ウォン称賛27 ビュー90000 +

おすすめ

転載: blog.csdn.net/szw_yx/article/details/79049666