[ML-13-1]隠れマルコフモデルHMM

[ML-13-1 ]隠れマルコフモデルHMM

[ML-13-2 ]隠れマルコフモデルHMM- 前方および後方アルゴリズム

[ML-13-3 ]隠れマルコフモデルHMM--Baum-Welch バウムウェルチ)

[ML-13-4 ]隠れマルコフモデルHMM-- 予測問題のビタビ(ビタビ)アルゴリズム

ディレクトリ

  1. 基本的な知識-マルコフ連鎖
  2. HMMの紹介
  3. HMMの定義
  4. HMMモデルの3つの基本的な問題

1.基本的な知識-マルコフ連鎖

1.1 マルコフのプロパティ

{X(t)、t∈T}をランダムなプロセスとし、Eがその状態空間である場合、t1 <t2 <... <tn <t、任意のx1、x2、...、xn、 x∈E、既知の変数X(t1)= x1、...、X(tn)= xnの下での確率変数X(t)の条件付き分布関数は、X(tn)= xnにのみ関連しますが、X (t1)= x1、...、X(tn-1)= xn-1は無関係です。つまり、条件付き分布関数は次の方程式を満たします。このプロパティはMarkovプロパティと呼ばれます。ランダムプロセスがMarkovプロパティを満たす場合、このプロセスは、マルコフプロセスと呼ばれます。

1.2 マルコフ連鎖

  • マルコフ連鎖とは、マルコフ特性を持つランダムなプロセスを指します。このプロセスでは、現在の情報が与えられた場合、過去の情報の状態は、将来の状態の予測には無関係です
  • マルコフ連鎖マルコフ連鎖の各ステップで、システムは確率分布に従って1つの状態から別の状態に変化したり、現在の状態を変更せずに維持したりできます。状態の変化は遷移と呼ばれ、状態変化の確率は遷移確率と呼ばれます。
  • マルコフ連鎖の3つの要素は、状態空間S、遷移確率行列P、および初期確率分布πです。

1.3 マルコフ連鎖事件

天気の状態が、晴れ、曇り、雨の3つの状態に分かれていると仮定します。ある日の天気状態は、前日の天気状態にのみ関連していると想定します。状態は、1(晴れ)、2(曇り)、3(雨)で表されます。遷移確率行列Pは次のとおりです。

n + 1日目の気象状態がjである確率は次のとおりです。

したがって、行列Pは条件付き確率遷移行列です。

行列Pのi行目の要素は、前の状態がiのときの分布確率を示します。つまり、各行要素の合計は1でなければなりません。

最終状態は遷移行列に関連し、初期値とは関係ありません。

2. HMMの概要

隠れマルコフモデル(HMM)は、音声認識、行動認識、NLP、および故障診断の分野で高性能の統計モデルです。HMMモデルに関する問題には、一般に次の2つの特性があります。

1)私たちの問題は、時系列や状態系列などのシーケンスに基づいています。

2)問題には2つのタイプのデータがあります。1つのタイプのシーケンスデータは観測可能である、つまり観測シーケンスです。もう1つのタイプのデータは観測可能ではありません。つまり、状態シーケンスと呼ばれる非表示の状態シーケンスです。

z1、z2 ...、znは観測不可能な状態、x1、x2、... xnは観測可能なシーケンスです;観測不可能な状態は観測可能なシーケンスの値を感じます(zの値はxの値を決定します) 。

z1とz2が観測できない場合、x1とz2は独立していますか?x1とx2は独立していますか?---回答:独立していない

z1が与えられた場合、z2とx1は独立していますか?---回答:独立

3. HMMの定義

HMMは、暗黙的な状態S、観測可能な状態O、初期状態確率行列π、暗黙的な状態遷移確率行列A、および観測可能な値遷移行列B(混同行列とも呼ばれます)で構成されます;πとAは状態シーケンスを決定します、Bは観測シーケンスを決定するため、HMMは3値シンボルを使用して表現できます。

HMMの3つの要素:

2.1 HMM パラメータ:

  1. Sはすべての可能な暗黙の状態のセット、Oはすべての可能な観測のセットです

  1. Iは長さTの状態シーケンス、Qは対応する観測シーケンスです。

  1. Aは、暗黙の状態遷移確率行列です。

aijは、時間tが状態siにあるときに、時間t + 1で状態sjに遷移する確率です。

  1. Bは、観測可能な値の転送確率行列です。

bijは、時刻tで観測値ojが状態siの条件下で生成される確率です。

  1. πは初期状態の確率ベクトルです。

2.2 基本的なプロパティ:

HMM モデルの4つ、3つの基本的な問題

観測シーケンス確率計算問題:前方後方アルゴリズム

モデルλ=(A、B、π)および観測されたシーケンスQ = {q1、q2、...、qT}が与えられた場合、モデルλの下で観測されたシーケンスQの確率P(Q |λ)を計算すると、問題は次のようになります。 HMMモデルの3つの問題のうち最も単純なものです。詳細については、このシリーズの第2部を参照してください。

モデル学習問題:Baum-Welchアルゴリズム(状態不明)

観測シーケンスQ = {q1、q2、...、qT}が与えられると、観測シーケンスP(Q |λ)がこのモデルの下で最大になるように、モデルλ=(A、B、π)のパラメーターが推定されます。この問題の解決には、EMアルゴリズムに基づくBaum-Welchを使用する必要があります。これは、HMMモデルの3つの問題の中で最も複雑です。詳細については、このシリーズの第3部を参照してください。

予測問題は、デコード問題とも呼ばれます:ビタビ(ビタビ)アルゴリズム

モデルλ=(A、B、π)と観測シーケンスQ = {q1、q2、...、qT}が与えられると、与えられた観測シーケンスの最大の条件付き確率P(I | Q、λ)をもつ暗黙の状態シーケンスを見つけますI.この問題の解決には、動的計画法に基づくビタビアルゴリズムが必要です。詳細については、このシリーズの第4部を参照してください。

5.例

1、2、3の番号が付けられた3つのボックスがあるとします。各ボックスには、黒と白の小さなボールが装備されており、ボールの比率は次のとおりです。

次のルールに従って、置換されたボールが抽出され、ボールの色の観測シーケンスが取得されます。

  1. πの確率に従ってボックスを選択し、ボックスから小さなボールをランダムに抽出し、色を記録して、ボックスに戻します。
  2. 特定の条件付き確率に従って新しいボックスを選択し、操作を繰り返します。
  3. ようやく観測シーケンスを得た:「白黒と白白黒
  • 状態セット:S = {ボックス1、ボックス2、ボックス3}
  • 観測セット:O = {白、黒}
  • 状態シーケンスと観測シーケンスの長さT = 5
  • 初期確率分布π
  • 状態遷移確率行列A(仮説)
  • 観測確率行列B(データに基づく)

状態遷移確率行列Aのルールがあるとします。現在描画されているボックスが最初のボックスである場合、最初のボックスに0.5の確率が残り、描画を続行し、2番目のボックスに0.4の確率でボールを描画します。ボールを引くために3番目のボックスに行く確率0.1。現在描画されているボックスが2番目のボックスである場合、0.2の確率でボールを描画し続けるために2番目のボックスに残り、0.2の確率で最初のボックスに移動してボールを描画し、0.6の確率で3番目のボックスに移動します。ボール。現在描画されているボックスが3番目のボックスである場合、0.3の確率で3番目のボックスに留まり、ボールを描画し続け、0.2の確率で最初のボックスに移動し、0.5の確率で2番目のボックスに移動します。ボール。5回繰り返すまで続けます

パラメータπ、A、およびBが与えられた場合、観測されたシーケンスが「白、黒、白、白、黒」である確率はどれくらいですか?

付録1:手書きの練習

おすすめ

転載: www.cnblogs.com/yifanrensheng/p/12684717.html