ロジスティック回帰(ロジスティック回帰、LR)

1.ロジスティック回帰とは何ですか。

2、導出及び処理するためにロジスティック回帰。

3、マルチロジスティック回帰分類

4、ロジスティック回帰線形回帰VS

5、ロジスティック回帰VS SVM

 

1.何がロジスティック回帰を作ります。

(Y = 0 | X; \シータ)回帰と呼ばれ、実際には$ Pを算出することで、分類された分類カテゴリを予測する$サイズ、予測カテゴリではなく、確率よりも、1、0であるが、確率が計算され、$ 0 \当量のP(Y = 0 | X; \シータ)\当量1 $、確率値自体は、概念を持たない非1、すなわち、0。

二つロジスティック回帰:xは、yは出力入力されます。

$ P(Y = 0 | X)= \ FRAC {1} {1 + E ^ { - } Z} $

$ P(Y = 0 | X)= \ FRAC {1} {1 + E ^ { - (\オメガX + B)}} $

$ P(Y = 1 | X; \シータ)+ P(Y = 0 | X; \シータ)= 1 $

$ Z =オメガ\ X + B $

$ \ FRAC {\部分Z} {\部分W} = X $
$ \ FRAC {\部分Z} {\部分B} = 1 $

 

ロジスティック:対数確率関数

確率:確率P /発生は1-P $の\のFRAC {P} {1-P} $を発生しません

対数確率:$ロジット(P)= \ログの\ FRAC {P} {1-P} = \オメガのX $

$ \オメガX + B = 0 $この決定境界;

P> 1-P、$ \ FRAC {P} {1-P}> 1 $、$ \ログの\ FRAC {P} {1-P}> 0 $、X> 0 $即ち$ \オメガ。

場合P <1-P、$ \ FRAC {P} {1-P} <1 $、$ \ログ\ FRAC {P} {1-P} <0 $、すなわち$ \オメガX <0 $。

$ Z =オメガ\ X + B $

時が$ 0 $ Z \ GEQ、$ G(Z)\ GEQ 0.5 $、= 1 $の$ Y

場合$ Z <0 $時間、$ gを(Z)<0.5 $、$のY = 0 $

2、導出及び処理するためにロジスティック回帰。

:(モデルパラメータを推定する尤度関数を用いてモデルパラメータ推定)

損失関数:$ \ prod_ {i = 1} ^ {N} P ^ {Y_ {I}}(1-P)^ {1-Y_ {I}} $(ここクロスエントロピー損失フォームと称します)

最大値を見つけ、対数尤度関数を書きます。

勾配降下、Wを求めています。

分類; | P(\シータX、Y = K)に

 

導出:

尤度関数:$ L = P ^ {Y_ {I}}(1-P)^ {1-Y_ {I}} $

対数尤度関数:$ L = P {Y_ {I}} +(1-P)({1- Y_ {I}})$

最大需要対数尤度関数からは、最低に変換:

$のL = - (P {Y_ {I}} +(1-P)({1- Y_ {I}}))$

勾配降下によって追求するには:

$ \ FRAC {\部分L} {\部分P} = - \ FRAC {Y_ {I}} {P} + \ FRAC {1- Y_ {I}} {1-P} $

$ p = \ FRAC {1} {1つの+ E ^ { - Z}} $

$ \ FRAC {\部分P} {\部分Z} = FRAC \ {E ^ { - Z}}、{(1 + E ^ { - Z})^ {2} = P(1-P)$

$ \ FRAC {\部分Z} {\部分W} = X $
$ \ FRAC {\部分Z} {\部分B} = 1 $

$のDW =(P-Y_ {I})×$

$ DB =(P-Y_ {I})$

 

3、マルチロジスティック回帰分類

方法:Nは、作られた2つの分類に対応します:

1VS23は、$ H _ {\シータ} ^ {1}(X)$

2VS13は、$ H _ {\シータ} ^ {2}(X)$

3VS12; $ H _ {\シータ} ^ {3}(x)は$

最大$ hを求めて_ {\シータ} ^ {I}(X)$カテゴリに対応します。

方法2:シグモイド関数ソフトマックスへ

このとき、コスト関数ソフトマックス回帰アルゴリズムを以下に示す(ここ):

明らかに、上記の式は、ロジスティック回帰損失関数の一般化です。

私たちは、次のように読み取るために、フォームのロジスティック回帰機能を失うことができます。

 そして、それを見つける勾配降下を使用します。

 

 

 4、ロジスティック回帰線形回帰VS

線形回帰:

$ F(X_ {I})= \オメガX_ {I} + bは$、使得$ Y_ {I} \のおおよそのF(X_ {I})$

最小二乗法を探しています

一般線形回帰誤差関数は、(最尤推定から)の違いを乗

ロジスティック回帰が、それは非凸関数、唯一の局所最適解です。

(最尤推定由来)交差エントロピーコスト関数を用いてロジスティック回帰は、ため:凸関数、大域最適解があります。

違い:

1、ロジスティック回帰分類、回帰、線形回帰です。

ロジスティック回帰変数の離散的であるので2は、従属変数の線形回帰は、連続的です。

 

ロジスティック回帰は、線形回帰プラス活性化関数ではありません

$のH _ {\シータ}(X)= G(\はシータ_ {0} + \シータ_ {1} X_ {1} + \シータ_ {2} X_ {2} + \シータ_ {3} X_ {1 } ^ {2} + \シータ_ {3} X_ {2} ^ {2})$

多項式を用いることを特徴とする、より複雑な境界だけでなく、線形分割を得ることができます。

決定境界は、属性のトレーニングセットではなく、H {\シータ}(X)$ _パラメータとそのプロパティを$自体を想定しています。

 

非線形モデルが、本質的線形分類モデルです。

線形回帰にシグモイドマッピングを追加し、推定$のP(Y = 1 | x)は$確率が分類すること。

$ \オメガX + B = 0 $として決定境界、線形を達成へ。

例えば:

$ \シータ_ {0} + \シータ_ {1} X_ {1} + \シータ_ {2} X_ {2} = 0 $

$ \シータ_ {0} + \シータ_ {1} X_ {1} ^ {2} + \シータ_ {2} \ SQRT {X_ {2} = 0 $

一見線形が、唯一の変数に変更しないでください。

の$ T_ {1} = X_ {1} ^ {2}、T_ {2} = \ SQRT {X_ {2}} $

$ \シータ_ {0} + \シータ_ {1} T_ {1} + \シータ_ {2} T_ {2} = 0 $

 

 

 5、ロジスティック回帰VS SVM

$$ G(Z)= \ FRAC {1} {1 + E ^ { - } Z} $$

$$ P(Y = 0 | X; \シータ)= FRAC {1} \ {1つの+ E ^ { - (WX + B)}} $$

$ H入力xに対して(X)= $に対して、予測結果の確率(パラメータ$の\の$シータ)$ = P(Y = 1 | X; \シータ)$

LRは、サブリニア問題解決SVM、変数変換カーネルと同じです。

しかし、オーバーフィッティングに簡単にLR、変数の線形成長とLR VC次元ために。

SVMは、変数を持つクラスSVM VC次元の数が増加するので、オーバーフィッティングすることは容易ではありません。

 

おすすめ

転載: www.cnblogs.com/danniX/p/10720198.html