情報利得KLダイバージェンス

(A)の紹介

  • 避けられないが、すでに一方で述べ$ KL $発散$(カルバック・ライブラー$ $発散)$の名前を聞いたときに、いくつかの最近の回帰分析クラスは、まだありません完全にランダムフォレストレビューで他の一方で、理解しますさらにゲインに関連する情報の性質を理解し、情報利得と$ KL $の間のリンク発散近いが自明である、情報を統合しようとしているこの知識を学ぶために集まっ

(II)の定義

  • エントロピー:$ H(X)= E_X [\ LN \ FRAC {1} {P(X)}] $
  • ジョイントエントロピ:$ H(X、Y)= E_ {X、Y} [\ LN FRAC \ {1} {P(X、Y)}] $
  • 条件付きエントロピー:$ H(Y \のヴェールX)= E_X $ [E_ {Y \ヴェールのX} [\ LN FRAC {1} {P(Y軸\のヴェールX)}] \]
    • 3の関係は次のとおりです。$のH(X、Y)= H(X)+ H(Y \ヴェールX)$
      • $ H(X、Y)= - \ IINT P(X、Y)\のLN P(X、Y)のDX、DY \\ = - \ IINT P(X、Y)\ LN P(X)DX dy- \ IINT P(X、Y)\のLN P(Y \のVERT x)からのDX、DY \\ = H(X) - \ INT P(X)\ INT P(Y \のヴェールX)\のLN P(Y軸\ヴェールX)DY DX \\ = H(X)+ H(Y \ヴェールX)$
  • KLダイバージェンスの$ $:$ \ INT P(X)\ LN \ FRAC {P(X)}、{Q(X)}のDX $
  • 情報ゲイン:$ I(X、Y)= H(X)-H(X \ vertのY)= H(Y)-H(Y \ヴェールX)$
    • $ I $の情報利得を見つけることは困難ではない対称演算子であります

おすすめ

転載: www.cnblogs.com/gyhhaha/p/11788408.html