机器学习-周志华-个人练习13.1

版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qilixuening/article/details/72803711

13.1 试推导出式(13.5)~(13.8)

式13.5

首先,高斯混合模型的公式如下:

pM(x)i=1kαi=i=1kαip(xμi,Σi),=1(1)(2)

则根据贝叶斯定理,未标记样本 xj 属于各高斯混合成分 Θi 的概率为:
γji=p(Θ=ixj)=p(Θ=i)p(xjΘ=i)pM(xj)=αip(xjμi,Σi)i=1kαip(xjμi,Σi),(3)
则式 (13.5) 得证。


式13.6~13.7

根据书上公式 (13.4) :

LL(DlDu)=(xj,yj)Dlln(i=1kαip(xjμi,Σi)p(yjΘ=i,xj))+xjDuln(i=1kαip(xjμi,Σi))(4)

由于假定每一个类别对应一个高斯混合成分,则 p(yjΘ=i,xj)=1 当且仅当 yj=i ,否则 p(yjΘ=i,xj)=0 ,则上式 (4) 可以化简为:
LL(DlDu)=(xj,yj)Dlyj=ilnαip(xjμi,Σi)+xjDuln(i=1kαip(xjμi,Σi))(5)

接下来回顾一下高斯分布的表达式:
p(xμi,Σi)=1(2π)n2|Σi|12exp{12(xμi)Σ1i(xμi)}(6)

其对参数的偏导为:
p(xμi,Σi)μip(xμi,Σi)Σi=p(xμi,Σi)Σ1i(μix)=p(xμi,Σi)Σ2i((xμi)(xμi)Σi)(7)(8)

(5) αi 求偏导,将 (3),(7) 带入得:
LL(DlDu)μi=(xj,yj)Dlyj=iαip(xjμi,Σi)αip(xjμi,Σi)Σ1i(μixj)+xjDuαip(xjμi,Σi)i=1kαip(xjμi,Σi)Σ1i(μixj)=Σ1(xj,yj)Dlyj=i(μixj)+xjDuγji(μixj)(9)

(9)=0 可解得:
μi=1i=1kγji+li(xj,yj)Dlyj=ixj+xjDuγjixj(10)
(13.6) 得证。
同样地,以 (5) Σi 求偏导,将 (3),(8) 带入得:
LL(DlDu)Σi=(xj,yj)Dlyj=iαip(xjμi,Σi)αip(xjμi,Σi)Σ2i((xμi)(xμi)Σi)+xjDuαip(xjμi,Σi)i=1kαip(xjμi,Σi)Σ2i((xμi)(xμi)Σi)=Σ2(xj,yj)Dlyj=i((xμi)(xμi)Σi)+xjDuγji((xμi)(xμi)Σi)(11)

(11)=0 可解得:
Σi=1i=1kγji+li(xj,yj)Dlyj=i(xμi)(xμi)+xjDuγji(xμi)(xμi)(12)
13.7 得证。


式13.8

对于混合系数 αi ,除了要最大化 LL(DlDu) ,还应满足隐含条件: αi0,Ni=1αi=1 ,因此考虑对 LL(DlDu) 使用拉格朗日乘子法,变为优化

LL(DlDu)+λ(i=1Nαi1)(13)

(5) 带入 (13) ,并令 (13) αi 的导数为0,得到:
0=(xj,yj)Dlyj=ip(xjμi,Σi)αip(xjμi,Σi)+xjDup(xjμi,Σi)i=1kαip(xjμi,Σi)+λ(14)

(14) 两边同乘 αi 得:
0=(xj,yj)Dlyj=i1+xjDuγji+αiλ(15)

(15) 对所有混合高斯成分求和:
0=i=1k(xj,yj)Dlyj=i1+i=1kxjDuγji+i=1kαiλ=l+u+λ(16)

解得 λ=m ,将其带入 (15) 可得:
αi=1mxjDuγji+li(17)
(13.8) 得证。

猜你喜欢

转载自blog.csdn.net/qilixuening/article/details/72803711
今日推荐