之前多次接触极大似然估计,一直没有透彻的理解清楚,下午特意抽空查阅资料,整理成一篇较为通俗易懂的博文。
概念
“似然” ( likelihood )可以通俗的理解成 ”像是这样“ ,意思为 ”事件(观察数据)发生的可能性“,”极大似然估计“ 就是要找到一个估计值,使得 ”事件发生的可能性“ 最大。
举个例子
如图,有两个外形完全相同的箱子。甲箱中有99个白球1个黑球,乙箱中有99个黑球1个白球。一次试验,取出的是黑球。 那么这个黑球最像是从哪个箱子取出的?大多数人都会说,这个黑球最像是从乙箱中取出的,这个推断符合人们的经验,即为“最大似然”。
总结来说,最大似然估计 假设模型是确定的,然后利用抽取的样本结果,反推最大概率导致这样结果的模型参数值,即:“模型已定,参数未知”。
因此,样本结果的概率(即事件发生的可能性),是一个带模型参数的似然函数。最大似然估计法的目标就是最大化似然函数,用最优化算法求解 导致样本结果概率最大的参数值。
极大似然估计的描述
极大似然估计中采样需满足一个很重要的假设,就是所有的采样都是独立同分布的。
首先,假设$ x_1,x_2,…,x_n$为独立同分布的采样,θ为模型参数, f 为所使用的模型。因此,产生上述采样结果的概率可表示为:
f(x1,x2,...,xn∣θ)=f(x1∣θ)∗f(x2∣θ)...,f(xn∣θ)
由于极大似然估计法中,我们已知的为$ x_1,x_2,…,x_n$,未知为θ,故似然函数定义为:
L(θ∣x1,...,xn)=f(x1,...,xn∣θ)=i=1∏nf(xi∣θ)
两边取对数,得到对数似然,公式为:
扫描二维码关注公众号,回复:
4479423 查看本文章
lnL(θ∣x1,...,xn)=lni=1∏nf(xi∣θ)=i=1∑nlnf(xi∣θ)
最大似然估计法最常用的为对数平均似然,公式为:
l^=n1lnL(θ∣x1,...,xn)
因此最大似然估计法就是 最大化似然函数求参数值,即:
θ^mle=argmaxθ∈Θl^(θ∣x1,...,xn)
极大似然估计的例子
我们假设已知的模型为正态分布
N(μ,σ2),则似然函数为:
L(μ,σ2)=i=1∏nf(xi∣θ)=i=1∏n2π
σ1e−2σ2(xi−μ)2=(2πσ2)−2ne−2σ21∑i=1n(xi−μ)2
两边取对数,得对数似然函数为:
lnL(μ,σ2)=−2nln(2π)−2nln(σ2)−2σ21i=1∑n(xi−μ)2
最大化似然函数,我们对它进行求导:
{∂μ∂lnL(μ,σ2)=σ21∑i=1n(xi−μ)=0∂σ2∂lnL(μ,σ2)=−2σ2n+2σ41∑i=1n(xi−μ)2=0
联合解得:
{μ∗=x=n1∑i=1nxiσ∗2=n1∑i=1n(xi−x)2
似然方程有唯一解:
(μ∗,σ∗2),即为最大似然估计量
θ^。
因此,求最大似然估计量
θ^的一般步骤为:
(1)写出似然函数;
(2)对似然函数取对数,并整理;
(3)求导数;
(4)解似然方程。
注意:
参数估计不同于估计。
日常所说的估计一般是通过样本分布估计总体的分布,比如用样本集的均值作为总体的期望。在参数估计中,模型是假设已知的,估计得参数后就可得完整模型。