深さラーニング(II):学習のグラフモデル

I.はじめに

、ネットワーク構造に知られており、ネットワークパラメータ推定、各条件付き確率分布のパラメータを推定し、メイングラフモデル学習は、最適なネットワーク構造を見つけるために、あるネットワーク構造を学習することです。ここでは主にネットワークパラメータ推定についてです。その後、パラメータは自由に隠れ変数の推定値、および隠された変数を含むパラメータ推定に分けることができます。我々は直接観察することができない変数の点で観察変数に対する隠れ変数、特徴空間内の推論を知るために理解することができるが直接見え、より高度なニーズにされていないことを特徴とします。

第二に、引数には、隠された変数の推定値が含まれていません

有向グラフモデルでは、すべての変数があれば最尤推定値によってネットワークパラメータを推定することができるように、観察可能であるが、条件(親)にあるかを知る場合。

パラメータの量を削減するためにモデルをパラメータ化するために使用することができ、それは個別の缶シグモイド信念ネットワークであれば連続ならば、あなたはガウス信念ネットワークを使用することができます(ブログの疑問に答え、元のガウス確率分布を使用することも可能で、に主に依存します変数x)を離散的又は連続的です

有向グラフでは、xの同時確率分布はポテンシャルエネルギー関数の最大値に乗法群に分解されます。

 

 

この誘導体対数尤度関数シータ同様のパラメータは、パーティション関数Z誘導体のために見つけることができ、所望の結果は、モデルの分布です。

ここでの配布モデルは非常に我々は、確率サンプル配布の対象であるP(X)を、定義開始を意味し、そして私たちの目標は、モデルの未知パラメータを得ることです。

その後、我々は見つけます:

ただ不定積分を学習時間の必然的に思わせる最初の意志は、統合が導入される矩形領域の始まりです。経験分布と呼ばれる最初の事実は、また、所望の形で書くことができます。

前者は経験分布である、我々は分布モデルで実際のサンプル、を介して取得、我々は要件を必要とします。私たちは、パラメータ、無向グラフモデルを計算し、誘導体は0に派生等しいであることを確認し始めている、このプロセスの導出はフィット実物にサンプルを通る私たちの分布に相当します。

第三に、隠された変数とパラメータの推定

 

また、このモデルでは、観測可能な変数が含まれていますが、常に私たちは隠された変数は変数ですが表示されないことを覚えている隠れ変数が含まれています!我々は唯一の観察可能な変数のデータサンプルを使用することができます!いいえ変数を隠しません!隠された変数が見ることができないので!これを知って、それはよく次のジョブを理解されています!

実際には、我々は唯一のP(X)を必要と究極の目標は、xは、最初にすべての私たちは、P(z)は全く実用的な意義がありませんを求めた後、P(z)を見つけることができなかった、潜在変数をzで表され、観察可能な変数を指し、通常の究極の目標は、生きるためにあるように、これらの研究者が唯一の私たちの医療の宝を豊かに学び、彼らは、この究極の目標の研究者を研究ものの、我々は、米は胃の中で消化種類の方法を観察することではない、食べますそれは科学的な研究ですが、また、人々が生きて食べて!

どのようにBEGのP(x)は、それ、私たちは今、観察や隠されたモデルの2の確率変数が存在することを知って、彼らはお互いに関係しますが、我々は唯一の隠された目に見えない観察可能な確率変数を、見ることができますが、隠された変数は、我々は、特にどのように隠された変数の分布を把握する必要はありませんが、私たちは隠された変数に考慮に観測可能な変数の確率分布を取らなければならないが、彼らはまた、私たちの観察可能な変数の確率に影響を与え、確率変数でありますの効果。

 定義されたサンプルは、周辺尤度関数をxは:の$ P(X; \シータ)= \ sum_ {Z} ^ {} P(X、Z; \シータ)$

この式は、ランダムなので、ここでは、あなたがいる限り、観察変数XとZの同時確率として、観測可能な変数xの確率分布を知っているし、その後十分に合計する暗黙の変数zが、実際には、Xの周辺確率を求めるしたい場合ことを教えてくれるその非変数x zは、xはzの同時確率和の周辺確率です。これによると、井戸を加算後、最初の同時確率分布を求めることができず、私は同時確率分布を知っていれば、良く探し出すことができなければならない、良いナンセンスああ感じるとき前にここを参照してくださいが、キーは、変数が見ることができない隠されていますアイデア、まだ尤推定を最大化するために、そして、可能性に言及した隠された変数を使用せずに、前のグラフモデルを使用している場合:

でも、この尤度関数の直接導出、我々はまた、ログ導出は、同時確率分布は、分母に行くことがわかった、我々は同時確率分布を計算していないことを排除することはできません。この合計は、それは実際には、主な問題は、条件付き確率分布$ pを計算することであると結論付け、推論問題と呼ばれる問題につながる、直接計算することができない(Z \半ばxは、\シータ)$、なぜこの計算、共同確率分布$理由P(Z、X; \シータ)= P(Z \半ばのx; \シータ)P(X; \シータ)$、同時確率分布は主にZの合計を含むと考えることができない理由を、我々は同時確率分布に従いますZを含む用語は、$ P(Z \ミッドX; \シータ)条件付き確率分布であることを特徴とする請求分解条件付き確率式、後に我々はこの値を計算する場合、$、尤度関数はまた、問題ありません。正確な推論とおおよその推論推論、書き込みに他のブログに、多くの知識をそこに発生します。

$;今取るステップバック尤度関数は、尤度関数は$ログP(\シータX)を計算するために、主に以下そのステップZの合計よりもです

 

おすすめ

転載: www.cnblogs.com/liuxiangyan/p/12540649.html