原則&EMアルゴリズム理解するための機械学習アルゴリズムの[ソース]

著作権:ソースを明記してください再現し、「AIは武漢研究をアルゴリズム」マークhttps://blog.csdn.net/qq_36931982/article/details/90893730

 

機械学習アルゴリズムを使用する2つのEM交互ステップ、工程Eを計算する:現在のパラメータ値を使用してログ尤度推定の所望の値を計算するステップと、M-工程:次いで、Eは、尤度期待値最大化パラメータ値を生成し、ステップすることができる検索、および新しいパラメータ値が収束するまで、再計算ステップEで得られました。

EMアルゴリズムは、より複雑な式の導出、理解しやすいです、我々は整理してEMアルゴリズム、EMの知識が徐々に深い理解の簡単な例から始めます。

コイントス実験:コイントスを5回繰り返した後、2枚のコインAとB、及びランダムに10回選択。私たちは、それぞれ正の確率を推定する必要があります。

次の図は、コインがそれぞれ正および負のステップの統計的実験的状況を通ってAまたはBを選択することが知られているを示し、硬貨Aが最終的に得られる正の確率が0.8であり、コインの確率は、前B 0.45であります

次の図のBに示すように、我々はAの確率とBのコインフェイスアップを推定する必要がある場合には実験を行っている各コインの明確な選択は、データのサンプルを認識している、あなたは未知のパラメータを推定する必要がありますθAとθB、サンプルZ中の隠された変数が存在する(aは各未知コインや硬貨Bから選択されます)

必要なパラメータのEMアルゴリズムの最初の推定値は、初期値は、θA= 0.6、θB= 0.5です。

E-ステップを理解するためには:実際には、隠された変数を期待して、初期値や隠れ変数の事後確率の前の反復のパラメータに応じて算出されます。隠れ変数の現在の推定値として:

M-ステップ:願いを設定すると、新しいパラメータ値θAとθBを得るために、尤度関数を最大化します

 

[数学的基礎】

 

1、ジェンセンの不等式

凸関数:すべての実数xに対して、二次導関数が0以上であれば、fは、実数の関数のドメインとするが、その後、fは凸関数であり、xがベクトルである場合、ヘッセ行列Hは、半正定値は、(ある場合H)が0以上である場合、fは凸関数です。

厳密に凸関数は: 0よりも大きいだけならば、それは厳密に凸関数で、0に等しいではありません。

一方の特性:関数fは凸関数である場合、Xは(E(X))をE [F(X)]以上のF確率変数です。

二つの特性: fが厳密に凸、関数、E [F(X)=である場合 、F(E(X)) の場合に限りP(X = E(X) )= 1、 およびXは一定であります

 図において、実線fが凸関数であり、Xは確率変数であり、それは図E [F(X)]に見られる> F(E [X])が確立されました=。

図2に示すように、所望の式レイジー統計学者ルール

 

[EステップとMステップ]

 

EMアルゴリズムは、目的が明確であるEMアルゴリズムを使用して、拡張「最大尤度関数推定」のためのものである:「パラメータθ 'の確率モデルP(X、Z)を決定する最大尤度と、異なる機能が可能性という点です機能より未知の変数Z、以下のEMアルゴリズム式の本体。

 

[参考文献]

(EMアルゴリズム)EMアルゴリズム

EMアルゴリズムを詳細に導出されます

EMアルゴリズムとは何ですか?
 

 

おすすめ

転載: blog.csdn.net/qq_36931982/article/details/90893730