机器学习之统计知识

一、什么是最大似然估计、最大后验估计以及贝叶斯参数估计

抛掷三次硬币,如果三次都是正面,那么问下一次硬币正面朝上的概率是多少?这种情况下,我们需要根据已观察到的三次样本数据D来估算概率正面朝上的概率p。

一种方法是找到能最大化观测数据的似然函数 P ( D ; θ ) 的参数 θ 的值。这里 θ 是关于概率分布P的参数,意味着参数 θ 决定了分布P,但是分布P知识说明了观测数据D成立的可能性多大。

θ M L = a r g max θ P ( D ; θ )

这是被称作 最大似然估计 的最常用的参数估计方法。通过该方法,我们可以估计上述问题中 θ = 1.0 。但是直觉告诉我们这是不太可能的。对于大多数硬币还是存在反面朝上的可能性的,因此我们希望可以得到类似 θ = 0.5 的结果。

如何将这种直觉数学化表示出来呢?我们可以定义一个观测数据和参数的联合分布概率: P ( D , θ ) = P ( D | θ ) P ( θ ) 。我们定义一个先验分布 P ( θ ) 来表示在观测前关于 θ 的直觉,以及在给定 θ 的情况下的条件概率 P ( D | θ )
此时我们借助贝叶斯公式来求后验分布 P ( θ | D )

P ( θ | D ) = P ( D | θ ) P ( θ ) P ( D )

对于贝叶斯公式中的分母,我们可以抛开 P ( D ) 来讨论 P ( θ | D ) ,因为 P ( D ) 与参数 θ 无关,所以并不会改变分布的相对大小。

θ M L = a r g max θ P ( θ | D ) = a r g max θ P ( D | θ ) P ( θ ) P ( D ) = a r g max θ P ( D | θ ) P ( θ )

这就是我们说所的 最大后验估计(MAP)。有很多方法可以算出参数 θ 的确切值,如:共轭梯度法。

有了最大后验估计,可以通过先验分布来引入我们的直觉,并且忽略归一化积分,从而得到后验分布模式下的关于 θ 的点估计。
但是如果我们试着使用近似方法求积分呢?假如按通常的独立同分布假设,我们可以利用这个事实:未来可能出现的数据样本值x条件独立于给定参数 θ 时的观测值D。

P ( x | D ) = P ( x , θ | D ) d h = P ( x | θ ) P ( θ | D ) d h

这与使用 P ( θ | D ) 模式对应的参数 θ 的单一值来计算 P ( x | D ) 不同,而是更严格的方法,考虑了所有可能的 θ 的后验值。这种方法称为:贝叶斯参数估计

注意,存在两个关于概率分布的重要任务:

  • 推断:给定已知参数的联合分布,通过其他变量的边缘概率和条件概率估计一个变量子集上的概率分布。
  • 参数估计:从数据中估计某个概率分布的未知参数

贝叶斯参数估计将这两个任务构造成了「同一枚硬币的两面」:

估计在一组变量上的定义的概率分布的参数,就是推断一个由原始变量和参数构成的元分布。

但是,做到这一点需要计算困难的积分,不得不用类似马尔可夫链蒙特卡洛算法或者变分推断等方法取近似。
(关于贝叶斯最后这些,不是很明白~)


猜你喜欢

转载自blog.csdn.net/wyisfish/article/details/80032559