隐马尔科夫模型(HMM)学习笔记二

  这里接着学习笔记一中的问题2,说实话问题2中的Baum-Welch算法编程时矩阵转换有点烧脑,开始编写一直不对(编程还不熟练hh),后面在纸上仔细推了一遍,由特例慢慢改写才运行成功,所以代码里面好多处都有print。

  笔记一中对于问题1(概率计算问题)采用了前向或后向算法,根据前向和后向算法可以得到一些后面要用到的概率与期望值。

一、问题2 学习问题  已知观测序列,估计模型参数,使得在该模型下观测序列概率最大

  隐马尔可夫模型的学习,根据训练数据除包括观测序列O外是否包括了对应的状态序列 I 分为监督学习和非监督学习。如果包括了状态序列 I ,则可以直接采用极大似然估计来估计隐马尔可夫模型的初始状态概率Pi,状态转移概率A和观测概率B(一般统计频数)。但是一般没有对应的状态序列 I ,如果人工标注训练数据的话代价太高,所以大多时候采用非监督学习方法------Baum-Welch算法。 

  Baum-Welch算法

  假设给定训练数据只包含S个长度为T的观测序列屏幕快照 2016-08-05 下午3.05.00.png而没有对应的状态序列,目标是学习隐马尔可夫模型屏幕快照 2016-08-05 下午3.05.26.png的参数。我们将观测序列数据看作观测数据O,状态序列数据看作不可观测的隐数据I,那么隐马尔可夫模型事实上是一个含有隐变量的概率模型

屏幕快照 2016-08-05 下午3.06.57.png

它的参数学习可以由EM算法实现(EM算法可以参考博客,博主写得通俗易懂)。

  1、确定完全数据的对数似然函数

  所有观测数据写成屏幕快照 2016-08-05 下午3.09.43.png,所有隐数据写成屏幕快照 2016-08-05 下午3.10.02.png,完全数据是屏幕快照 2016-08-05 下午3.10.55.png。完全数据的对数似然函数是屏幕快照 2016-08-05 下午3.11.24.png

  2、EM算法的E步

  求Q函数屏幕快照 2016-08-05 下午3.12.12.png

屏幕快照 2016-08-05 下午3.12.41.png

其中,屏幕快照 2016-08-05 下午3.20.12.png是隐马尔可夫模型参数的当前估计值,屏幕快照 2016-08-05 下午3.20.39.png是要极大化的隐马尔可夫模型参数。(Q函数的标准定义是:屏幕快照 2016-08-05 下午3.43.56.png,式子内部其实是条件概率,其中的屏幕快照 2016-08-05 下午3.46.56.png对应屏幕快照 2016-08-05 下午3.47.45.png;其与屏幕快照 2016-08-05 下午3.48.11.png无关,所以省略掉了。)

屏幕快照 2016-08-05 下午3.21.15.png

于是函数屏幕快照 2016-08-05 下午3.22.37.png可以写成:

屏幕快照 2016-08-05 下午3.24.30.png

式中求和都是对所有训练数据的序列总长度T进行的。这个式子是将屏幕快照 2016-08-05 下午3.21.15.png代入屏幕快照 2016-08-05 下午3.12.41.png后(取对数后变成加法,便于求解),将初始概率、转移概率、观测概率这三部分乘积的对数拆分为对数之和,所以有三项。

  3、EM算法的M步:极大化Q函数屏幕快照 2016-08-05 下午3.12.12.png求模型参数屏幕快照 2016-08-05 下午3.51.36.png,由于要极大化的参数在Q函数表达式中单独地出现在3个项中,所以只需对各项分别极大化。

  第1项可以写成:

屏幕快照 2016-08-05 下午3.53.59.png

注意到屏幕快照 2016-08-05 下午3.54.45.png满足约束条件利用拉格朗日乘子法,写出拉格朗日函数:

屏幕快照 2016-08-05 下午3.55.34.png

对其求偏导数并令结果为0

屏幕快照 2016-08-05 下午3.57.50.png

得到

屏幕快照 2016-08-05 下午3.58.51.png

这个求导是很简单的,求和项中非i的项对πi求导都是0,logπ的导数是1/π,γ那边求导就剩下πi自己对自己求导,也就是γ。等式两边同时乘以πi就得到了上式。

对i求和得到γ:

屏幕快照 2016-08-05 下午4.05.21.png

代入屏幕快照 2016-08-05 下午3.58.51.png中得到:

屏幕快照 2016-08-05 下午4.07.06.png

第2项可以写成:

屏幕快照 2016-08-05 下午4.15.18.png

类似第1项,应用具有约束条件屏幕快照 2016-08-05 下午4.18.07.png的拉格朗日乘子法可以求出

屏幕快照 2016-08-05 下午4.21.51.png

第3项为:

屏幕快照 2016-08-05 下午4.24.43.png

同样用拉格朗日乘子法,约束条件是屏幕快照 2016-08-05 下午4.25.35.png。注意,只有在对屏幕快照 2016-08-05 下午4.26.02.png屏幕快照 2016-08-05 下午4.27.09.png屏幕快照 2016-08-05 下午4.27.27.png的偏导数才不为0,以屏幕快照 2016-08-05 下午4.28.02.png表示。求得

屏幕快照 2016-08-05 下午4.28.27.png

  Baum-Welch模型参数估计公式

  将这三个式子中的各概率分别简写如下:

屏幕快照 2016-08-06 下午12.26.43.png

屏幕快照 2016-08-06 下午12.27.35.png

  则可将相应的公式写成:

屏幕快照 2016-08-06 下午12.28.26.png

这三个表达式就是Baum-Welch算法(Baum-Welch algorithm),它是EM算法在隐马尔可夫模型学习中的具体实现,由Baum和Welch提出。

  算法 (Baum-Welch算法)

  输入观测数据屏幕快照 2016-08-06 下午12.30.06.png

  输出隐马尔可夫模型参数。

  (1)初始化。屏幕快照 2016-08-06 下午12.30.34.png,选取屏幕快照 2016-08-06 下午12.31.26.png,得到模型屏幕快照 2016-08-06 下午12.31.38.png

  (2)递推。对屏幕快照 2016-08-06 下午12.32.34.png

屏幕快照 2016-08-06 下午12.32.49.png

屏幕快照 2016-08-06 下午12.33.49.png

右端各值按观测屏幕快照 2016-08-06 下午12.30.06.png和模型屏幕快照 2016-08-06 下午12.34.40.png计算。

  (3)终止。得到模型参数屏幕快照 2016-08-06 下午12.36.26.png

  分析:先根据前向算法得出alpha,根据后向算法得到beta,之后再根据本文最开始的公式计算gamma和sigamma矩阵,这里注意gamma是N*N维的,而sigamma是T-1*N*N维的,最后执行Baum-Welch算法。代码里面有相应的注释,这里我也卡了好久,可以先自己到纸上推一下。

def Baum_Welch(pi, A, B, obs_seq, error=0.005):
    switch = 0  # 判断是否停止迭代
    if not switch:
        N = A.shape[0]  # 可能的状态个数
        M = B.shape[1]  # 可能的观测结果个数
        T = len(obs_seq)  # 观测序列长度
        newB = np.zeros((N, M)) # 初始化观测概率
        alpha = forward_compute(pi, A, B, obs_seq)[1]   # 前向算法得到的alpha矩阵  N*T维
        print('alpha:', alpha)
        beta = backword_compute(pi, A, B, obs_seq)[1]   # 后向算法得到的beta矩阵  N*T维
        print('beta:', beta)
        gamma = np.zeros((N, T))  # gamma_t_i 表示t时刻在状态q_i的概率 N*N维
        sigamma = np.zeros((T-1, N, N))  # sigamma_t_i_j t时刻处于q_i,t+1时刻处于q_j的概率  (T-1)*N*N维
 
        for t in range(T-1):
            gamma[:, t] = (alpha[:, t]*beta[:, t]) / (alpha[:, t].dot(beta[:, t]))  # 求出gamma矩阵
            denom = np.dot(np.dot(alpha[:,t].T, A) * B[:,obs_seq[t+1]].T, beta[:,t+1])  # sigmma矩阵分母
            for i in range(N):
                molecule = alpha[i, t]* A[i,:] * B[:,obs_seq[t+1]]*beta[:,t+1]  # 分子
                sigamma[t,i,:] = molecule / denom   # 求sigamma
        
        gamma[:, T-1] = (alpha[:, T-1]*beta[:, T-1]) / (alpha[:, T-1].dot(beta[:, T-1]))  # 由于sigamma直到T-1,所以gamma最后要添加一列
        print('gamma:', gamma)
        print('sigamma:', sigamma)
        # print('-----------')
        # print(np.sum(sigamma, axis=0))
        # print('*********')
        # print(np.sum(gamma[:,:T-1], axis=1))
        # print(np.sum(gamma[:,:T-1], axis=1).reshape(N, -1))
        #更新
        newA = np.sum(sigamma, axis=0)/(np.sum(gamma[:,:T-1], axis=1).reshape(N, -1))
        # print(newA)
        # print(obs_seq==0)
        # print(np.sum(gamma, axis=1)
        for m in range(M):
            newB[:,m] = np.sum(gamma.T[obs_seq==m], axis=0)/(np.sum(gamma, axis=1))
        # print(newB)
        newpi = gamma[:, 0] 
    
        # 检查是否满足要求
        if np.max(abs(pi - newpi)) < error and np.max(abs(A - newA)) < error and np.max(abs(B - newB)) < error:
                switch = 1
        pi, A, B = newpi, newA, newB
    return A, B, pi

  之后带入相关数据进行测试。

A = np.array([[0.1, 0.3, 0.6],[0.3, 0.5, 0.2], [0.3, 0.5, 0.2]])
B = np.array([[0.5, 0.5],[0.5, 0.5], [0.5,0.5]])
pi = np.array([0.2, 0.4, 0.4])

observations_data = np.array([0, 1, 0, 0, 1])

newA, newB, newpi = Baum_Welch(pi, A, B, observations_data)
print("newA: ", newA)
print("newB: ", newB)
print("newpi: ", newpi)

 二、问题3 预测问题  已知模型和观测序列,求给定序列最大概率下的状态

  预测算法有两种:近似算法和维特比算法。

  1.近似算法

  基本思想:在每个时刻t选择在该时刻最有可能出现的状态 i*t ,从而得到一个状态序列 I* = (i*1, i*2, ..., i*T)。

  对于给定隐马尔可夫模型和观测序列O,在 t 时刻处于状态 qi 的概率gamma(i) 为:

 

 

在每一时刻 t 最有可能的状态 i*t 为:

从而得到状态序列 I* = (i*1, i*2, ..., i*T)。

这个代码很简单,直接对gamma按行求最大值就行。

'''
gamma: [[0.2     0.26    0.248   0.2504  0.44992]
        [0.4     0.46    0.448   0.2992  0.24992]
        [0.4     0.28    0.304   0.4504  0.30016]]
'''
def envolution_state(gamma):
    states = []
    for i in range(gamma.shape[1]):
        max_index = np.where(gamma==np.max(gamma[:,i]))[0][0]
        states.append(max_index)
    return states

print('*********test*********')
gamma = np.array([[0.2 ,0.26,0.248,0.2504,0.44992], [0.4,0.46,0.448,0.2992,0.24992], [0.4,0.28,0.304,0.4504,0.30016]])
print('state:', envolution_state(gamma))

  2、维特比算法

   基本思想:利用动态规划求解隐马尔科夫模型预测问题,即用动态规划求解概率最大路径(最优路径),一条路径对应一个状态序列。

  算法(维特比算法)

  输入模型屏幕快照 2016-08-06 下午3.41.46.png和观测屏幕快照 2016-08-06 下午3.42.03.png;

  输出最优路径屏幕快照 2016-08-06 下午12.38.58.png

  ⑴初始化

屏幕快照 2016-08-06 下午3.43.21.png

  (2)递推。对屏幕快照 2016-08-06 下午3.43.59.png

屏幕快照 2016-08-06 下午5.15.29.png

  (3)终止

屏幕快照 2016-08-06 下午5.16.09.png

  (4)最优路径回溯。对屏幕快照 2016-08-06 下午5.30.40.png

屏幕快照 2016-08-06 下午5.31.49.png

求得最优路径屏幕快照 2016-08-06 下午12.38.58.png

def vetebi(pi, A, B, obs_seq):
    N = A.shape[0]  # 状态个数
    T = len(obs_seq) # 观测序列长度
    
    deta = np.zeros((N, T))  # 初始化deta矩阵
    fia = np.zeros((N, T), dtype=int)  # 初始化fia矩阵
    path = np.zeros(T, dtype=int)  # 初始化最优路径
    
    deta[:, 0] = pi*B[:, obs_seq[0]]  # 计算deta_1
    for t in range(1, T):
        matrix = (deta[:, t-1]*A.T)*B[:, obs_seq[t]].reshape(N, -1)  # 计算乘法,deta按列取其中最大的
        deta[:, t] = np.max(matrix, axis=1)  # 给deta赋值
        fia[:, t] = np.argmax(matrix, axis=1)  # 给fia赋值,用于求最优路径
    print(deta)
    print(fia)
    
    # 最大概率
    P_max = np.max(deta[:, T-1]) 
    # print(P_max)
    
    # 求最优路径
    path[T-1] = np.max(fia[:, T-1])
    for t in range(T-2, -1, -1):
        path[t] = fia[:, t+1][path[t+1]]
    # print(path)
    return path+1

  利用书本上例题进行测试。

# test
A = np.array([[0.5, 0.2, 0.3], [0.3, 0.5, 0.2], [0.2, 0.3, 0.5]])
B = np.array([[0.5, 0.5], [0.4, 0.6], [0.7, 0.3]])
pi = np.array([0.2, 0.4, 0.4])
obs_seq = np.array([0, 1, 0])
path = vetebi(pi, A, B, obs_seq)
print('the best path is :',path)

猜你喜欢

转载自www.cnblogs.com/xiaxuexiaoab/p/10236164.html
今日推荐