ML - LR

導入

我々は肯定的な結果の確率が判決に変換することができます予測することができれば、線形回帰は、値を予測することができますが、それは分類に使用することはできません。どのようにその確率をオンにするには?

シグモイド関数

ここに画像を挿入説明
ここで引数は任意の実数とすることができ、出力は、正および負のしきい値カテゴリ実施例0.5に分けることができます。
また、他の値のしきい値を注文選択し始めている実際のビジネスモデルの観点から、心に留めておくことができます

対数回帰チャンス

線形回帰式には、関数が仮定さのロジスティック関数(も翻訳されたロジスティック回帰)を取得することができ
ここに画像を挿入説明
、その後、サンプルラベルyが0で表されるデータの二つのカテゴリーがある場合を

ここに画像を挿入説明
これは、式のように書かれています
ここに画像を挿入説明

損失関数

構築物の損失関数に解決する必要性

それは簡単にするために、両側の対数を取って、尤度関数を必要と統計理論から、L(θ)に進み、線形回帰と同じであってもよい
本明細書の方法を線形回帰を参照してもよいが、繰り返し

付加的な損失関数を構築する方法は、関数の特性から推定することができる
ここに画像を挿入説明
Y = 1つの予測= 0、Y = 0予測=、予測= Y = 1 1に理由により選択された誤差関数、です0 = 0〜1 =予測ルックY。
誤差関数の値が0であるときには、正しく予測誤差を予測することができ、誤差関数が無限である
その後、我々は、各サンプルデータの誤差関数の値を計算し、損失関数J(θ)は誤差関数値の合計ではありません
ここに画像を挿入説明
どんな損失関数が同じ構築方法は、結果は、我々は、典型的には、計算を簡単にするために、一定の係数-1 / m倍されます。
ここに画像を挿入説明

損失関数を解きます

解決損失関数の勾配降下法
最初の偏微分

ここに画像を挿入説明
そして、パラメータが更新される
ここに画像を挿入説明
αあなたは、見ることができ、学習率で反復更新ロジスティック回帰モデルを反復更新フォーマットと線形回帰モデルがまったく同じです。
しかし、その機能をh(θ)が異なっていると想定されます。

マルチカテゴリー

マルチ分類問題を解決するために、バイナリ学習者を使用する方法?
私たちはできるマルチタスクは、各タスクがバイナリ分類器、分類は、最終的な結果を得るために統合され、これらの予測の最後を養成するために、その後、解決するために、複数の二分法のタスクに分類解体します。
積分結果を投票することができ、それが自信によって決定することができます。

公開された24元の記事 ウォンの賞賛5 ビュー3111

おすすめ

転載: blog.csdn.net/G____G/article/details/104781886