違い[機械学習ノート]ロジスティック回帰との線形回帰

区別ロジスティック回帰(ロジスティック回帰)線形回帰(線形回帰)の

 

ロジスティック回帰

  • 分類に使用されます
  • バイナリ分類問題を解決するだけでなく、マルチ分類問題を解決することができます。
  • ロジスティック回帰は離散的です。例えば、明日の天気を予測する-曇り、晴れ、雨。分類は、通常、離散値の結果として、何かのためのラベルが付いています。例えば、画像上の動物が猫や犬であるかを決定するために、通常、分類は回帰に基づいており、最後の層の分類は、典型的にはそれらのカテゴリを判断するためにソフトマックス関数を使用しています。分類と近似の無い概念、そして最終的に一つだけ正しい結果があるが、間違っては間違っている、まったく同様の概念は存在しません。最も一般的な分類は、ロジスティック回帰である、または論理的な分類を呼び出します。
  • インタフェースは線形であり、ロジスティックス回帰は一般化線形モデル(GLM)または呼ばれる対数線形モデル(LLM)であるため、物流回帰は、依然として、線形回帰のカテゴリに属します。
  • ロジスティックス回帰対数最尤、勾配降下の方向に正の勾配を作る、時には線形回帰と一致するため、多くの場合、負の対数尤度を取ります。
  • 一般的に、LRはなく線形回帰よりロジスティックス回帰を指します。
  • 方法は簡単ですので、物流回帰とソフトマックス回帰は本当によく働く、実装するのは簡単、選択肢の分類を行っている、分類を除き、推奨システムも使用することができ、説明するのは簡単です。
  • 活性化関数はシグモイド関数である線形回帰は正規化シグモイド関数であると理解、シグモイド関数は、実区間[0,1]にマッピングされます。この不明の解決についてのロジスティック回帰パラメータ推定値は語りました。値は0.5と1の間である場合、データは、クラス1に属する、シグモイド関数が仮定されるだけに、最も簡単な決定方法をxが属する未知のクラスを予測する場合、そうでない場合はカテゴリ0に属します。
     

複数の分類のアイデアを使用してロジスティック回帰は次のとおりです。正のサンプルは、他のサンプルは、バイナリ分類モデルを作成するために、負に分類としてカテゴリを選択し、そしてより多くのビルドので、バイナリモデル(少数を構築するには、いくつかのカテゴリがあります);に以上の2クラスモデルの出力値は、そのクラスの最大出力値として分類されるサンプルの大きさを比較します。

直線回帰

  • 通常値を予測するために使用問題を解決するために戻ります。住宅価格は、将来の気象条件などを予測したように、製品の実際の価格は、回帰分析、499元の予測値を通じて、$ 500、例えば、私たちは、これは良い回帰分析だと思います。戻り値は、実際の予測の近似値です。
  • 試料は限りパラメータが線形であるように、使用することができ、非線形であってもよいです。フォームY = w'x + Eの発現は、eはエラーは、通常、平均0で分散されています。それは問題でxが線形であるかどうか、時には特徴選択を行う必要はありませんため。
  • 線形回帰対数尤度最小、負の勾配方向に、そうすることで勾配降下。

ロジスティック回帰とソフトマックス 

参考ボーエン:

https://blog.csdn.net/danieljianfeng/article/details/41901063?depth_1-utm_source=distribute.pc_relevant.none-task&utm_source=distribute.pc_relevant.none-task

ロジスティック回帰の基本的な考え方

ロジスティック回帰は、一般的に、データマイニング、経済予測やその他の分野で使用される一般化線形回帰モデル、です。

本質的にバイナリ分類問題に属するロジスティック回帰は、第二のクラスは、(また、「S型関数」として知られている)シグモイド関数に基づいて、分類モデルを監督しています。

シグモイド関数式は次のようになります。

:(音符のその誘導体形態、誘導体形態は、後の段階で使用されます)

シグモイド関数は、0と1の間の範囲に圧縮される以下の画像を示します。

私たちは、カテゴリタグでサンプルを訓練の教師付き分類すべき問題がある知っている、zは トレーニングセット情報のサンプルに対応することになります。試料情報は、通常、すなわち機能、一連の線形結合で表されます。

前記   意味N特徴は、重要度の代表的な特徴を、対応する各特徴量の重みは、それがオフセットされ、上記式は、通常、ベクトル形式で記述されている:    ( に対応する1に等しいです)。だから、シグモイド関数は、それに応じて以下の形のように書くことができます。

それは0と1の間の数を得るために上記方程式にある限り、我々は、特定の特徴値は、サンプルおよび体重パラメータに対応することを知っていると仮定し、一般的と考えられる、すなわち、カテゴリに属するVERSAカテゴリ正、負及び副に属し実際には、数は、サンプルが正のカテゴリーに属する確率を反映しています。

質問は今、私たちはサンプルが知られていることを手のトレーニングセットを持って、で、モデルパラメータは不明です。私たちは、トレーニングセットを通じて、未知の値を決定する必要があります。決定されると、新たなサンプルに直面するたびに、我々は、マッピングすることができるスローの結果が0.5よりも大きいか否かに応じて、新しいカテゴリのサンプルを得るためにさわやか。

 

公開された619元の記事 ウォンの賞賛185 ビュー660 000 +

おすすめ

転載: blog.csdn.net/seagal890/article/details/105107179