[ML-13-2 ]隠れマルコフモデルHMM- 前方および後方アルゴリズム
[ML-13-3 ]隠れマルコフモデルHMM--Baum-Welch (バウムウェルチ)
[ML-13-4 ]隠れマルコフモデルHMM-- 予測問題のビタビ(ビタビ)アルゴリズム
ディレクトリ
- 基本的な知識-マルコフ連鎖
- HMMの紹介
- HMMの定義
- HMMモデルの3つの基本的な問題
- 例
1.基本的な知識-マルコフ連鎖
1.1 マルコフのプロパティ
{X(t)、t∈T}をランダムなプロセスとし、Eがその状態空間である場合、t1 <t2 <... <tn <t、任意のx1、x2、...、xn、 x∈E、既知の変数X(t1)= x1、...、X(tn)= xnの下での確率変数X(t)の条件付き分布関数は、X(tn)= xnにのみ関連しますが、X (t1)= x1、...、X(tn-1)= xn-1は無関係です。つまり、条件付き分布関数は次の方程式を満たします。このプロパティはMarkovプロパティと呼ばれます。ランダムプロセスがMarkovプロパティを満たす場合、このプロセスは、マルコフプロセスと呼ばれます。
1.2 マルコフ連鎖
- マルコフ連鎖とは、マルコフ特性を持つランダムなプロセスを指します。このプロセスでは、現在の情報が与えられた場合、過去の情報の状態は、将来の状態の予測には無関係です。
- マルコフ連鎖マルコフ連鎖の各ステップで、システムは確率分布に従って1つの状態から別の状態に変化したり、現在の状態を変更せずに維持したりできます。状態の変化は遷移と呼ばれ、状態変化の確率は遷移確率と呼ばれます。
- マルコフ連鎖の3つの要素は、状態空間S、遷移確率行列P、および初期確率分布πです。
1.3 マルコフ連鎖事件
天気の状態が、晴れ、曇り、雨の3つの状態に分かれていると仮定します。ある日の天気状態は、前日の天気状態にのみ関連していると想定します。状態は、1(晴れ)、2(曇り)、3(雨)で表されます。遷移確率行列Pは次のとおりです。
n + 1日目の気象状態がjである確率は次のとおりです。
したがって、行列Pは条件付き確率遷移行列です。
行列Pのi行目の要素は、前の状態がiのときの分布確率を示します。つまり、各行要素の合計は1でなければなりません。
最終状態は遷移行列に関連し、初期値とは関係ありません。
2. HMMの概要
隠れマルコフモデル(HMM)は、音声認識、行動認識、NLP、および故障診断の分野で高性能の統計モデルです。HMMモデルに関する問題には、一般に次の2つの特性があります。
1)私たちの問題は、時系列や状態系列などのシーケンスに基づいています。
2)問題には2つのタイプのデータがあります。1つのタイプのシーケンスデータは観測可能である、つまり観測シーケンスです。もう1つのタイプのデータは観測可能ではありません。つまり、状態シーケンスと呼ばれる非表示の状態シーケンスです。
z1、z2 ...、znは観測不可能な状態、x1、x2、... xnは観測可能なシーケンスです;観測不可能な状態は観測可能なシーケンスの値を感じます(zの値はxの値を決定します) 。
z1とz2が観測できない場合、x1とz2は独立していますか?x1とx2は独立していますか?---回答:独立していない
z1が与えられた場合、z2とx1は独立していますか?---回答:独立
3. HMMの定義
HMMは、暗黙的な状態S、観測可能な状態O、初期状態確率行列π、暗黙的な状態遷移確率行列A、および観測可能な値遷移行列B(混同行列とも呼ばれます)で構成されます;πとAは状態シーケンスを決定します、Bは観測シーケンスを決定するため、HMMは3値シンボルを使用して表現できます。
HMMの3つの要素:
2.1 HMM パラメータ:
- Sはすべての可能な暗黙の状態のセット、Oはすべての可能な観測のセットです。
- Iは長さTの状態シーケンス、Qは対応する観測シーケンスです。
- Aは、暗黙の状態遷移確率行列です。
aijは、時間tが状態siにあるときに、時間t + 1で状態sjに遷移する確率です。
- Bは、観測可能な値の転送確率行列です。
bijは、時刻tで観測値ojが状態siの条件下で生成される確率です。
- πは初期状態の確率ベクトルです。
2.2 基本的なプロパティ:
HMM モデルの4つ、3つの基本的な問題
観測シーケンス確率計算問題:前方後方アルゴリズム
モデルλ=(A、B、π)および観測されたシーケンスQ = {q1、q2、...、qT}が与えられた場合、モデルλの下で観測されたシーケンスQの確率P(Q |λ)を計算すると、問題は次のようになります。 HMMモデルの3つの問題のうち最も単純なものです。詳細については、このシリーズの第2部を参照してください。
モデル学習問題:Baum-Welchアルゴリズム(状態不明)
観測シーケンスQ = {q1、q2、...、qT}が与えられると、観測シーケンスP(Q |λ)がこのモデルの下で最大になるように、モデルλ=(A、B、π)のパラメーターが推定されます。この問題の解決には、EMアルゴリズムに基づくBaum-Welchを使用する必要があります。これは、HMMモデルの3つの問題の中で最も複雑です。詳細については、このシリーズの第3部を参照してください。
予測問題は、デコード問題とも呼ばれます:ビタビ(ビタビ)アルゴリズム
モデルλ=(A、B、π)と観測シーケンスQ = {q1、q2、...、qT}が与えられると、与えられた観測シーケンスの最大の条件付き確率P(I | Q、λ)をもつ暗黙の状態シーケンスを見つけますI.この問題の解決には、動的計画法に基づくビタビアルゴリズムが必要です。詳細については、このシリーズの第4部を参照してください。
5.例
1、2、3の番号が付けられた3つのボックスがあるとします。各ボックスには、黒と白の小さなボールが装備されており、ボールの比率は次のとおりです。
次のルールに従って、置換されたボールが抽出され、ボールの色の観測シーケンスが取得されます。
- πの確率に従ってボックスを選択し、ボックスから小さなボールをランダムに抽出し、色を記録して、ボックスに戻します。
- 特定の条件付き確率に従って新しいボックスを選択し、操作を繰り返します。
- ようやく観測シーケンスを得た:「白黒と白白黒
- 状態セット:S = {ボックス1、ボックス2、ボックス3}
- 観測セット:O = {白、黒}
- 状態シーケンスと観測シーケンスの長さT = 5
- 初期確率分布π
- 状態遷移確率行列A(仮説)
- 観測確率行列B(データに基づく)
状態遷移確率行列Aのルールがあるとします。現在描画されているボックスが最初のボックスである場合、最初のボックスに0.5の確率が残り、描画を続行し、2番目のボックスに0.4の確率でボールを描画します。ボールを引くために3番目のボックスに行く確率0.1。現在描画されているボックスが2番目のボックスである場合、0.2の確率でボールを描画し続けるために2番目のボックスに残り、0.2の確率で最初のボックスに移動してボールを描画し、0.6の確率で3番目のボックスに移動します。ボール。現在描画されているボックスが3番目のボックスである場合、0.3の確率で3番目のボックスに留まり、ボールを描画し続け、0.2の確率で最初のボックスに移動し、0.5の確率で2番目のボックスに移動します。ボール。5回繰り返すまで続けます
パラメータπ、A、およびBが与えられた場合、観測されたシーケンスが「白、黒、白、白、黒」である確率はどれくらいですか?