[Sklearn講演】図のscikit学習方法一目

はじめに
sklearnはsklearnの周りに開きません、あなたは機械学習の分野でいくつかの成果を持っているしたい場合は、彼女は、機械学習のpythonモジュールの分野で最も有名なの一つであり、単語を導入していてはいけません

公式サイトのリンクhttp://scikit-learn.org/stable/index.html#をsklearn

まず、公式オンラインsklearnに構造を置きます:

各カテゴリリンク:https://blog.csdn.net/fuqiuai/article/details/7949​​5865

 

 

私たちは、すなわち、4つのブロックに分け、機械学習、チャートから見ることができ、

 分類(分類)、

 回帰(回帰)、 

 クラスタリング(クラスタリング)、 

 次元削減(降维)。

それは離散的であるならば、それは回帰問題である連続実数である場合、サンプルの特性を考えると、我々はそれに対応する属性値を予測することを願って、これは、逆に、分類問題です。

サンプル特性のセットを考えると、我々は、対応するプロパティの値を持っていないが、このグループは、ポリの一部であり、遠く離れたサンプルは、そのような接近サンプルの分析などのサンプル次元空間、の分布を探求したいと思いますクラスの問題。

私たちは、元の高次元の特徴空間を表現するために低次元の部分空間を使用したい場合、これは次元削減の問題があります。

classification & regression
       无论是分类还是回归,都是想建立一个预测模型 ,给定一个输入  , 可以得到一个输出 : 
     不同的只是在分类问题中,  是离散的; 而在回归问题中  是连续的。所以总得来说,两种问题的学习算法都很类似。所以在这个图谱上,我们看到在分类问题中用到的学习算法,在回归问题中也能使用。分类问题最常用的学习算法包括 SVM (支持向量机) , SGD (随机梯度下降算法), Bayes (贝叶斯估计), Ensemble, KNN 等。而回归问题也能使用 SVR, SGD, Ensemble 等算法,以及其它线性回归算法。

clustering
      聚类也是分析样本的属性, 有点类似classification, 不同的就是classification 在预测之前是知道  的范围, 或者说知道到底有几个类别, 而聚类是不知道属性的范围的。所以 classification 也常常被称为 supervised learning, 而clustering就被称为unsupervised learning。 
clustering 事先不知道样本的属性范围,只能凭借样本在特征空间的分布来分析样本的属性。这种问题一般更复杂。而常用的算法包括 k-means (K-均值), GMM (高斯混合模型) 等。

dimensionality reduction
      降维是机器学习另一个重要的领域, 降维有很多重要的应用, 特征的维数过高, 会增加训练的负担与存储空间, 降维就是希望去除特征的冗余, 用更加少的维数来表示特征.降维算法最基础的就是PCA了, 后面的很多算法都是以PCA为基础演化而来。




おすすめ

転載: www.cnblogs.com/ljt1412451704/p/11598679.html