著者|王Wenqi
Zebian |キャロル
ソース| CSDNブログ
制作| AI技術のベースキャンプ(ID:rgznai100)
学習目標
私たちは、ロジスティック回帰機能の損失を知っています
ロジスティック回帰の最適化は知っています
私たちは、シグモイド関数を知っています
あなたは、シナリオロジスティック回帰を知っています
アプリケーションロジスティック回帰はロジスティック回帰予測を実現します
私たちは、精度の違いを知って、リコール指標
私たちは、評価サンプルの不均衡を解決する方法を知っています
指示AUCインデックスのサイズの意味を理解するためのROC曲線
Classification_report正確なアプリケーション、リコール計算
コンピューティングアプリケーションのための指標roc_auc_score
ロジスティック回帰の紹介
ロジスティック回帰(ロジスティック回帰)は機械学習分類モデルである、ロジスティック回帰はリターンで名前が、分類アルゴリズムであるが、それとリターンの間にいくつかの接続があります。シンプルかつ効率的なアルゴリズムのためには、実際に広く使用されています。
ロジスティック回帰アプリケーションのシナリオ:
CTR
これはスパムであります
かどうかの病気
金融詐欺
偽アカウント
我々は彼らの特性を見ることができ、上記の例を参照してください、それは、2つのカテゴリ間の判断のすべての部分です。ロジスティック回帰の武器は、バイナリ分類問題を解決することです。
ロジスティック回帰原則
ロジスティック回帰分析をマスターするために、我々は2つのことを把握する必要があります。
ロジスティック回帰、入力値が何でありますか
出力論理回帰を確認する方法
図1に示すように、入力
入力ロジックは、回帰直線回帰の結果です。
図2に示すように、活性化関数
シグモイド関数
基準
回帰結果はシグモイド関数のうちに入力されます。
出力結果:[0、1]の確率間隔の値は、デフォルトしきい値は0.5であります
ロジスティック回帰により、最終的な分類は、確率値がカテゴリに属するカテゴリに属するされ、カテゴリのデフォルトフラグが1(陽性患者)であると判断し、別のカテゴリは、0(反例)が標識されています。(損失計算の利便性)
(重要な)結果出力の解釈は:A、Bの二つのカテゴリーがあると仮定し、我々はA(1)に属する確率値このカテゴリの確率値を仮定しました。今ロジスティック回帰0.6の出力に入力のサンプルがあり、その後、確率値は、我々は訓練または結果がA(1)カテゴリで予測することを意味し、0.5超え。逆に、次いで、その後0.3、または訓練結果は、B(0)カテゴリの結果が予測される場合。
だから、線形回帰はその後、我々はロジスティック回帰のために、我々は結果がないことを予測した場合にどのような損失を測定すること、平均二乗誤差を測定するために使用覚えて前に結果を予測するには?私たちは、このようなAの絵を見てください。
本当の違いのロジスティック回帰の結果を測定する方法の予測そう?
損失と最適化
1つの損失
ロジスティック回帰の喪失、と呼ばれる対数尤度損失、以下の式:
別々のカテゴリ:
どのように単一の方程式それを理解するには?これは、イメージログ機能の観点から理解されるべきです
機能の統合された完全な喪失
私たちの情報エントロピーを伝えると同様に、実際には、この式を参照してください。
その後、我々は意味を理解することができるようになります、再計算された上記の例をもたらします。
我々は損失を分析するために、この式を見ることができるように、我々はすでに、log§、Pの値が大きいほど、より小さな結果を知ります
2、最適化
また、損失関数の値を減らすために勾配降下最適化アルゴリズムを使用して。そのような論理は、重量の前相当する重量回帰アルゴリズムパラメータを更新する0の確率を低減すること、本来のカテゴリに属し確率を高める本来のカテゴリでした。
【終わり】
◆
フォース計画
◆
「フォース計画[第二四半期] - 学習能力チャレンジ」開始!今から3月21日まで、原作者をサポートするために流れなければなりません!挑戦にあなたを待っ独占[全表示]メダル
推奨読書
それぞれ「見た目」のあなたのポイント、真剣AIとしてI