【机器学习】隐马尔可夫(一)----模型定义

咸鱼了一个多月,黑色五月过得异常难受,找实习好烦,心态一直调整不好。
然后。。突然就想起了隐马尔可夫,我每天的心理状态是别人无法观测到的,每一天的状态组在一起就是一个状态序列,而我的行为活动是其他人可见的,每一天的行为组合在一起就是观测序列,当知道我月初的各种状态的概率分布,也知道了我这个人每种状态转移的概率分布和在某种状态下做出某种行为活动的概率分布时,是不是就能通过我这一个月每天的行为活动组成的序列来判断我每天的状态呢。emmm,隐马尔可夫带你成为一个能看懂人心的“神棍”。

基本假设

首先为了计算简单,要提出两点假设:
第一、齐次马尔可夫性假设
假设隐藏的马尔可夫链在任意时刻 t 的状态只依赖于其前一时刻 t 1 的状态,与其他时刻的状态及观测无关,也与时刻 t 无关。
P ( i t | i t 1 , o t 1 , . . . , i 1 , o 1 ) = P ( i t | i t 1 ) t = 1 , 2 , . . . , T
第二、观测独立性假设
假设任意时刻的观测只依赖于该时刻的马尔可夫链的状态,与其他观测及状态无关。
P ( o t | i T , o T , i T 1 , o T 1 , . . . , i t , o t , . . . , i 1 , o 1 ) = P ( o t | i t )

这两个假设一个是状态转移的关系,另一个是状态生成观测的关系。

模型参数(A,B,π)

隐马尔可夫模型是一个关于时序的概率模型,它由初始状态概率向量 π ,状态转移概率矩阵 A 和观测概率分布 B 来确定。模型用 λ 表示, λ = ( A , B , π ) 可以用来预测给定的观测序列对应的状态序列。

状态
i t 表示 t 时刻的状态, i 1 是第一天的状态(也就是初始状态)。
q 表示所有可能的状态,集合表示为 Q = { q 1 , q 2 , . . . , q N } N 即有 N 种状态。
P ( i t = q j ) 表示第 t 天( t 时刻)的状态是 q j 的概率, j 1 , 2 , . . . , N
{ }
观测
o t 表示 t 时刻的观测(行为活动)。
v 表示所有可能的观测(行为活动),集合表示为 V = { v 1 , v 2 , . . . , v M } M 即有 M 种观测。
P ( o t = v s | i t = q j ) 表示在第 t 天( t 时刻)状态是 q j 的条件下,第 t 天( t 时刻)观测到的活动是 v s 的概率, s 1 , 2 , . . . , M
{ }

状态转移概率矩阵 A

A = [ a j k ] N × N ,即一个 N × N 的矩阵, N 即有 N 种状态。
其中 a j k = P ( i t + 1 = q k | i t = q j ) ,即在第 t 天( t 时刻)的状态是 q j 的条件下在第 t + 1 天( t + 1 时刻)转移到状态 q k 的概率。
如下图的状态转移
这里写图片描述

A = [ a 11 a 12 a 13 a 14 a 21 a 22 a 23 a 24 a 31 a 32 a 33 a 34 a 41 a 42 a 43 a 44 ] = [ 0 0.9 0.1 0 0.6 0 0.4 0 0 0.5 0 0.5 0 0 0.7 0.3 ]

我们可以发现每一行之和为1,这是从某一状态转移为其他所有可能状态的概率之和。

观测概率矩阵 B

B = [ b j ( s ) ] N × M ,即一个 N × M 的矩阵, N 即有 N 种状态, M 即有 M 种观测。
其中 b j ( s ) = P ( o t = v s | i t = q j ) ,即在第 t 天( t 时刻)处于状态 q j 的条件下生成观测 v s 的概率。
如下图状态生成观测,每种状态生成所有观测的概率之和为1(用同色的线表示在同一行)
这里写图片描述

A = [ b 1 ( 1 ) b 1 ( 2 ) b 1 ( 3 ) b 1 ( 4 ) b 1 ( 5 ) b 2 ( 1 ) b 2 ( 2 ) b 2 ( 3 ) b 2 ( 4 ) b 2 ( 5 ) b 3 ( 1 ) b 3 ( 2 ) b 3 ( 3 ) b 3 ( 4 ) b 3 ( 5 ) b 4 ( 1 ) b 4 ( 2 ) b 4 ( 3 ) b 4 ( 4 ) b 4 ( 5 ) ] = [ 0.3 0.4 0.2 0.06 0.04 0.6 0.15 0.2 0.02 0.03 0.3 0.1 0.1 0.25 0.25 0.05 0.02 0.08 0.4 0.45 ]

初始状态概率向量 π

π = ( π 1 , π 2 , . . . , π i ) π i = P ( i 1 = q j ) i 1 表示初始状态。
π 1 = P ( i 1 = ) = 0.6 π 2 = P ( i 1 = ) = 0.25
π 3 = P ( i 1 = ) = 0.1 π 4 = P ( i 1 = ) = 0.05
π = ( 0.6 , 0.25 , 0.1 , 0.05 )

λ = ( π , A , B )
λ = ( π , A , B ) T
O = ( o 1 , o 2 , . . . , o T )

三个基本问题

①概率计算问题

给定模型 λ = ( π , A , B ) 和观测序列 O = ( o 1 , o 2 , . . . , o T ) ,计算在模型 λ 条件下观测序列 O 出现的概率 P ( O | λ )

②学习问题(训练问题)

已知观测序列 O = ( o 1 , o 2 , . . . , o T ) ,去估计模型 λ = ( π , A , B ) 的参数,使得在该模型条件下,观测序列概率 P ( O | λ ) 最大。
( E M )

③预测问题(解码问题)

已知模型 λ = ( π , A , B ) 和观测序列 O = ( o 1 , o 2 , . . . , o T ) ,求给定观测序列条件下概率 P ( I | O ) 最大的状态序列 I = ( i 1 , i 2 , . . . , i T )

猜你喜欢

转载自blog.csdn.net/u013597931/article/details/80571732