隐马尔可夫模型(HMM)详解

写在前面:最近在看这位“血影雪梦”博主对HMM的理解,博客写得非常好,献上链接。在此不重复造轮子,只为个人记忆撰写以下内容。

https://blog.csdn.net/xueyingxue001/article/details/51435728,基本概念。

https://blog.csdn.net/xueyingxue001/article/details/51435752,概率计算方法。

https://blog.csdn.net/xueyingxue001/article/details/51435818,学习方法。

https://blog.csdn.net/xueyingxue001/article/details/51435890,预测算法。


隐马尔可夫模型:由一个隐藏的马尔可夫链随机生成的不可观测的状态序列产生可见的观测序列的过程。

三要素:

  1. 初始状态。一开始处于每个状态的概率矩阵。
  2. 转移状态矩阵。状态之间互相转移的概率矩阵。
  3. 观测概率分布矩阵。由状态生成观测结果的矩阵。

计算方法:

前向:

  1. 求第一个状态,也即观测到o1时各状态的概率,\alpha _{1}\left ( i \right )=\pi _{i}b\left ( o_{1} \right )
  2. 这一个状态观测到j(b),从前一个状态(alpha)转移到这个状态(a)。\alpha{_{t+1}}\left ( i \right )=bi\left ( o_{t+1} \right )\sum_{j}^N\alpha_t\left ( j \right )a_{ji}
  3. 对最后的观测值,把所有可能的状态加和。P\left (O |\lambda \right )=\sum_{i=1}^N\alpha_T\left ( i \right )

后向:

  1. 默认最后一个状态,默认所有状态对概率都是1。\beta_{T}\left ( i\right )=1
  2. 后一个状态(beta)观测到状态j(bj),由现在这个状态i转移过来aij。\beta _{t}\left ( i \right )=\sum_{j=1}^Na_{ij}b_{j}\left ( o_{t+1} \right )\beta _{t+1}\left ( j \right )
  3. 用初始概率代替上述步骤。P\left (O |\lambda \right )=\sum_{i=1}^N \beta_1\left ( i \right )\pi _{i}b\left ( o_{1} \right )

猜你喜欢

转载自blog.csdn.net/silent_crown/article/details/85262814