[機械学習アルゴリズムと学習_2_理論的な記事] 2.2 M_ _ロジスティック回帰分類

まず、原理は記載します


アルゴリズムのタイプ:教師あり学習分類アルゴリズム_

入力:数値または公称タイプ(必要な公称タイプのホットエンコード)

V1.0


   yの中間値をyの実際の値は、2つのカテゴリにマッピングされるシグモイド関数を導入することにより、回帰バイナリ分類方法を解きます。

第二に、アルゴリズムの選択


 

第三に、アルゴリズムのプロセス


 

 Xが(-∞、+∞)関数1.Sigmoid範囲である、Yは範囲(0,1)は単調増加関数である;

2.値y> 0.5クラス1 <0.5のクラス0、Yを予測しました値も0とクラス1として確率として解釈することができる。

3.同様に、目的関数を与えるために、ベストフィット方程式を得るために、「最小二乗法」の概念を用いて、

目的関数4.が最小化され、必要が"と呼ばれます勾配降下:まで、「(学習率「プロセスは、次のように実質的アルゴリズム、超平面上の同様の山を、ビューの任意の点から、偏導関数を計算することは、負の方向の偏微分に沿って一定の距離を進むと呼びます」)これまでのところ(「収束」と呼ばれる)モバイル小さな相違点の初期点後に変化します。

メトリクス:最小二乗目的関数:最小二乗目的関数液:勾配降下

第四に、の特性


長所:シンプル、理解し、実装が容易、計算コストが高く、高速で、低ストレージリソースではありません。

短所:簡単underfitting、分類精度は高くないかもしれません。敏感外れ値および欠損値

第五に、コードAPI


 

おすすめ

転載: www.cnblogs.com/everda/p/11347959.html