確率論の基本的な知識を学習機

確率論のいくつかの基本的な知識

条件付き確率

\(P(B | A) = \ FRAC {1}、{3} \) 確率がA、Bが発生したときに発生手段で表されます

そこ式
\ [P(B | A) = \ FRAC {P(AB)} {P(A)} \]

\ [P(AB)= P(B | A)* P(A)= P(A | B)* P(B)\]

\ [P(A | B)= \ FRAC {P(B | A)* P(A)}、{P(B)} \]

完全確率式

\(B_1、B_2は、B_3 \) ...... \(B_N \)サンプル空間Sの分割を得ることができる
(P(A)\ = P (A | B_1)+ P(A | B_2)+ ...... P(A | B_N)= \ sum_ I = {0}} ^ {N- \) P(A | B_i)$

ベイズ式

\ [P(B_i | A)= \ FRAC {P(A | B_i)* P(B_i)} {\ sum_ {i = 0} ^ {N} $ P(A | B_i)} \]

いくつかの理解とベイズ式の解釈

\ [P(A | B)
= \ FRAC {P(B | A)* P(A)}、{P(B)} \] P(A)は、通常、機械学習において、事前確率の確率であります表示されたカテゴリ>の確率を意味

P(B | A)の条件付き確率は、クラス内のBの発生確率である

P |具体的には、(B)事後確率があるの意味を指す:イベントBを発生、分類確率からこの時間があります。

最尤推定最尤

原則

最大逆推力パラメータ値に、既知のサンプルを用いた構成は、この結果を引き起こす可能性があります。最尤推定値は上の最尤原理の統計的手法に基づいており、それは統計における確率論を応用したものです。最尤推定は、モデルパラメータ与えられた観測データを評価するための方法が提供され、すなわち「モデルは、パラメータが未知で、設定されています。」いくつかの試験により、観察された結果は、パラメータの実験値を用いて得られた結果は、最大サンプルの発生確率を可能にし、それは、最尤推定と呼ばれます。

サンプルセットが独立同一分布サンプルであるので、唯一のパラメータベクトルθを推定するために、クラスDのサンプルセットを考えることができます。既知の音符のサンプルセット:\ [D = \ {X_1、X_2、X_3、...... x_nに関する\} \]

\ [L(\シータ)= P(D | \シータ)= P(X_1、X_2、X_3 ...... x_nに関する| \シータ)= \ prod_ {i = 1} ^ {n}はP(X_I | \シータ)\ 尤度関数Dであります

どのようにML最尤機能

サンプルのセットを検索するように、発生値θの最大確率。

\ [\帽子{\シータ} = ARGMAX L(\シータ)= ARGMAX \ prod_ {i = 1} ^ {N} P(X_I | \シータ)\]

理解することは、単純な、我々はであることが知られている\(\シータ\)最大確率Dシーケンスが発生した場合に発生するように。乗っても、計算は非常に良いではありません。私たちは、変更するには何かを行うことができます。
\ [\帽子{\シータ} = ARGMAX L(\シータ)= ARGMAX \ prod_ {i = 1} ^ {N} P(X_I | \シータ)= ARGMAX(LN(\ prod_ {i = 1} ^ {N } P(X_I | \シータ) ))= ARGMAX \ sum_ {i = 1} ^ {N}のln(P(X_I | \シータ))\]

おすすめ

転載: www.cnblogs.com/bbird/p/11519772.html