版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/Hemk340200600/article/details/87890039
1.最大熵原理
在概率统计中,最大熵原理认为在所有可能的概率模型中,熵最大的模型是最好的模型。可以理解成在所有满足约束条件的模型集合中,选取熵最大的模型。由于熵满足不等式
0≤H(P)≤log∣X∣
当且仅当X服从均匀分布时,熵最大。举个例子,假如随机变量X有五个取值ABCDE,要估算取得每个值的概率,由于存在“概率相加为1”这一限制,而满足这一限制的概率分布有无限多个,根据最大熵原理,我们令P(A)=P(B)=P©=P(D)=P(E)=
51。因为没有更多的信息,这种判断是合理的。如果我们多了一条信息P(A)+P(B)=
103,则可以认为P(A)=P(B)=
203,P©=P(D)=P(E)=
307。
2.最大熵模型
在给定训练集T的情况下,我们需要使用最大熵原理选取最好的分类模型。根据训练集,我们根据样本出现的频率得到经验分布
P~(X=x,Y=y)=Nn(X=x,Y=y)P~(X=x)=Nn(X=x)
定义特征函数f(x,y)描述x和y之间的某一个事实,其定义是
f(x,y)={10满足某一事实否则
f(x,y)关于经验分布
P~(X,Y)的期望值定义如下:
EP~(f)=x,y∑P~(x,y)f(x,y)..........(1)
f(x,y)关于模型P(Y|X)与经验分布
P~(X)的期望值定义如下:
EP(f)=x,y∑P~(x)P(y∣x)f(x,y)..........(2)
如果模型能够有效获取训练数据中的信息,就可以令
EP(f)=EP~(f)..........(3)
定义在条件概率分布P(Y|X)上的条件熵为
H(P)=−x,y∑P~(x)P(y∣x)logP(y∣x)..........(4)
在所有满足所有约束条件的模型集合C中,令式子(4)最大的模型P称为最大熵模型。
3.训练过程
根据模型的定义,我们需要最优化的目标如下:
P∈Cmin−H(P)=x,y∑P~(x)P(y∣x)logP(y∣x).........(5)s.t.EP(fi)−EP~(fi)=0,i=1,2,...n..........(6)y∑P(y∣x)=1..........(7)
使用拉格朗日乘子法,定义拉格朗日函数L(P,w):
L(P,w)=−H(P)+w0(1−y∑P(y∣x))+i=1∑nwi(EP(fi)−EP~(fi))=−H(P)+w0(1−y∑P(y∣x))+i=1∑nwi(x,y∑P~(x,y)fi(x,y)−x,y∑P~(x)P(y∣x)fi(x,y))..........(8)
原始问题
P∈CminwmaxL(P,w)..........(9)
因为L是P的凸函数,可以通过求解对偶问题来求解原始问题,对偶问题如下
wmaxP∈CminL(P,w)..........(10)
将
Ψ(w)=P∈CminL(P,w)=L(Pw,w)记为对偶函数,将其解记作
Pw=argP∈CminL(P,w)=Pw(y∣x),因此我们求解L(P,w)对P(y|x)的偏导数,有
∂P(y∣x)∂L(P,w)=x,y∑P~(x)(logP(y∣x)+1)−y∑w0−x,y∑(P~(x)i=1∑nwifi(x,y))=x,y∑P~(x)(logP(y∣x)+1−w0−i=1∑nwifi(x,y))
令偏导数为0,有
(logP(y∣x)+1−w0−i=1∑nwifi(x,y))=0
即
P(y∣x)=exp(i=1∑nwifi(x,y)+w0−1)=exp(1−w0)exp(i=1∑nwifi(x,y))
由
y∑P(y∣x)=1,得
exp(1−w0)∑yexp(i=1∑nwifi(x,y))=1
得
Pw(y∣x)=Zw(x)1exp(i=1∑nwifi(x,y))...........(11)Zw(x)=y∑exp(i=1∑nwifi(x,y))..........(12)
Zw为规范化因子,由上式表示的模型
Pw=Pw(y∣x)就是最大熵模型。之后求解
wmaxΨ(w),因此最大熵模型的学习可以归结为对偶函数
Ψ(w)的极大化。
4.极大似然估计
对于经验概率分布
P~(X,Y),条件概率分布P(Y|X)的对数似然函数表示为
LP~(Pw)=logx,y∏P(y∣x)P~(x,y)=x,y∑P~(x,y)logP(y∣x)
当条件概率分布是P(y|x)是最大熵模型(11)(12)的时候,有
LP~(Pw)=x,y∑P~(x,y)logP(y∣x)=x,y∑P~(x,y)i=1∑nwifi(x,y)−x,y∑P~(x,y)logZw(x)=x,y∑P~(x,y)i=1∑nwifi(x,y)−x∑P~(x)logZw(x)..........(13)
对于对偶函数
Ψ(w),有
Ψ(w)=x,y∑P~(x)Pw(y∣x)logPw(y∣x)+i=1∑nwi(x,y∑P~(x,y)fi(x,y)−x,y∑P~(x)P(y∣x)fi(x,y))=x,y∑P~(x,y)i=1∑nwifi(x,y)+x,y∑P~(x)P(y∣x)(logPw(y∣x)−i=1∑nwifi(x,y))=x,y∑P~(x,y)i=1∑nwifi(x,y)+x,y∑P~(x)P(y∣x)logZw(x)=x,y∑P~(x,y)i=1∑nwifi(x,y)+x∑P~(x)logZw(x)
因此有
Ψ(w)=Lp~(Pw)
即对偶函数
Ψ(w)等价于对数似然函数
LP~(Pw),证明了最大熵模型学习中的对偶函数极大化等价于最大熵模型的极大似然估计。
5.改进的尺度迭代法IIS
改进的尺度迭代法IIS是一种最大熵模型学习的最优化算法。其思想是,假设最大熵模型当前参数向量是
w
,希望找到一个新的参数向量
w
+δ
,使得模型的对数似然值增大,因此我们需要找到一种参数想来那个更新的方法并重复使用,直至找到最大值。
模型参数从w变化到
w+δ,对数似然函数的变化值为
L(w+δ)−L(w)=x,y∑P~(x,y)logPw+δ(y∣x)−x,y∑P~(x,y)logPw(y∣x)=x,y∑P~(x,y)logPw(y∣x)Pw+δ(y∣x)=x,y∑P~(x,y)logZw+δ(x)Zw(x)expi=1∑nδifi(x,y)=x,y∑P~(x,y)i=1∑nδifi(x,y)−x,y∑P~(x,y)logZw(x)Zw+δ(x)=x,y∑P~(x,y)i=1∑nδifi(x,y)−x∑P~(x)logZw(x)Zw+δ(x)
利用不等式
−loga≥1−a,a>0
得到
L(w+δ)−L(w)≥x,y∑P~(x,y)i=1∑nδifi(x,y)+1−x∑P~(x)Zw(x)Zw+δ(x)=x,y∑P~(x,y)i=1∑nδifi(x,y)+1−x∑P~(x)y∑Pw(y∣x)expi=1∑nδifi(x,y)=A(δ∣w)
通过提高下界
A(δ∣w),对数似然函数值也会提高,但是
δ是一个向量,不容易同时优化,IIS试图优化其中一个变量
δi,固定其他变量
δj,为此引进新的变量
f#(x,y)=∑ifi(x,y)表示所有特征在(x,y)出现的次数。于是有
A(δ∣w)=x,y∑P~(x,y)i=1∑nδifi(x,y)+1−x∑P~(x)y∑Pw(y∣x)exp(f#(x,y)i=1∑nf#(x,y)δifi(x,y))
由于
f#(x,y)fi(x,y)≥0且
i−1∑nf#(x,y)fi(x,y)=1,根据Jensen不等式有
exp(i=1∑nf#(x,y)fi(x,y)δif#(x,y))≤i=1∑nf#(x,y)fi(x,y)exp(δif#(x,y))
于是
A(δ∣w)≥x,y∑P~(x,y)i=1∑nδifi(x,y)+1−x∑P~(x)y∑Pw(y∣x)i=1∑nf#(x,y)fi(x,y)exp(δif#(x,y))=B(δ∣w)
B(δ∣w)是对似然函数值的一个新的下界。求其对于
δi的偏导数,有
∂δi∂B(δ∣w)=x,y∑P~(x,y)fi(x,y)−x∑P~(x)y∑Pw(y∣x)fi(x,y)exp(δif#(x,y))
令偏导数为0得到
EP~(fi)=x∑P~(x)y∑Pw(y∣x)fi(x,y)exp(δif#(x,y))
改进的迭代尺度算法IIS总结如下:
- 初始化
wi=0,i=1,2,...,n
- 令
δi是方程
EP~(fi)=x∑P~(x)y∑Pw(y∣x)fi(x,y)exp(δif#(x,y))的解,并且有
f#(x,y)=i=1∑nfi(x,y)
- 更新
wi=wi+δi
- 如果所有的
wi并未收敛,重复步骤2和3
如果对于所有的x和y,都有
f#(x,y)=M,则有
δi=M1logEP(fi)EP~(fi)如果不是常数,则可以通过牛顿法和拟牛顿法迭代求得
δi∗。