MLE和MAP的小结

摘要

本文是关于MLE(最大似然估计)与MAP(最大后验概率)的一些自己学习的心得.
(本文的重点在于对比MLE和MAP)

正文

1.MLE(最大似然估计)

MLE简单的理解可以这样:假设我们手上有一批数据(样本),而且我们假设这些数据(样本)服从某个分布( 模型已知),但是参数未知.这个时候,我们希望对这个参数进行估计,而MLE的思想就是找到一个参数值,使得每条样本出现的概率最大!

具体来说假设样本为 x 1 , x 2 . . . . . x n ,待估计的参数为 θ .
那么要优化的目标为:
(0) a r g m a x   P ( x 1 , x 2 , . . . x n | θ )
假设每个样本间独立同分布那么我们有:
(1) a r g m a x   i = 1 n P ( x i | θ )
后面一般是取对数,把连乘转化成连加的形式更方便计算,后面就不展开了.

2.MAP(最大后验概率)

还是同样的场景:我们有一批数据(样本),我们假设其服从某个分布(模型已知),参数未知.但是,我们还有一个额外的信息就是,我们虽然不知道参数具体是多少,但是我们知道这个参数也服从某个分布,MAP就是加上这个条件后,去对我们的参数进行估计.

具体可以表现为:
(2) a r g m a x   P ( θ | x 1 , x 2 , . . . x n )
做一步贝叶斯公式有:
(3) a r g m a x   P ( θ | x 1 , x 2 , . . . x n ) = P ( x 1 , . . x n | θ ) P ( θ ) P ( x 1 , x 2 . . . x n )

其中 P ( θ ) 就是我们对 θ 的一个先验分布
对于分子,我们可以看到,其实就是先验分布和似然概率的乘积.

所以在经过几步的简单推导,我们可以得出MLE和MAP其实区别在于:

首先,我们不要忘了我们的目的,我的们目的是求模型中未知的参数!
1.MLE是通过直接最大化似然概率 P ( x 1 , . . x n | θ ) 来求解参数 θ ,而MAP是通过最大化似然概率×先验分布,即 P ( x 1 , . . x n | θ ) P ( θ ) 来求解参数 θ .

那这里似乎透露着利用MAP来估计参数会不会使得模型更加的好?这就取决于我们的这个先验概率捏的准不准.

MLE和MAP的联系在于:
1.两者都是用于模型已知,参数未知下对参数进行估计的方法

更多详细的参考资料:
参考资料1
参考资料2

猜你喜欢

转载自blog.csdn.net/qq_22238533/article/details/79872452
MLE
今日推荐