统计模式识别学习笔记(五)

首先,在本篇博客开始前,我要感谢各位读者。两周前,我决定在CSDN账号上记录自己的学习经历,截止到今天,已经有了超过500的阅读量。对我而言,这是一个不小的胜利。希望能和各位朋友们一同进步,一同交流。我是翡翠的风吟,谢谢你们。

前言回顾

在前几篇文章中,统计模式识别的任务和方法,并介绍了最小错误和最小风险贝叶斯决策方法。贝叶斯最小错误决策可表示为:
p ( ϖ j ∣ x ) = p ( ϖ j ) p ( x ∣ ϖ j ) p ( x ) p(\varpi_j|x)=p(\varpi_j)\frac{p(x|\varpi_j)}{p(x)} p(ϖjx)=p(ϖj)p(x)p(xϖj)
然而在很多时候,我们并不能做到完全知晓概率密度函数 p ( x ∣ ϖ i ) p(x|\varpi_i) p(xϖi) 的全部信息。参数法假设已知类条件概率密度函数的形式而未知其参数 θ j \theta_j θj ,这个类条件概率密度可表示为 p ( x ∣ θ j ) p(x|\theta_j) p(xθj)
p ( ϖ j ∣ x ) = p ( ϖ j ) p ( x ∣ θ ^ j ) p ( x ) p(\varpi_j|x)=p(\varpi_j)\frac{p(x|\hat{\theta}_j)}{p(x)} p(ϖjx)=p(ϖj)p(x)p(xθ^j)
参数法有两种方法,一种是估计法,另外一种方法是贝叶斯法。

密度估计的贝叶斯法

  1. 估计法
    对于 ϖ j \varpi_j ϖj 类,参数 θ ^ j \hat{\theta}_j θ^j 用源于本类的样本观测值 D j = { x 1 j , . . . , x n j j } ( x i j ∈ R d ) D_j=\lbrace x^j_1,...,x^j_{n_j} \rbrace (x_i^j\in R^d) Dj={ x1j,...,xnjj}(xijRd) 进行估计,所使用的方法是极大似然法。但是,这种方法不考虑因采样结果的多变性而造成的参数估值 θ ^ j \hat{\theta}_j θ^j 可能的变化。
  2. 贝叶斯法(预测法):
    贝叶斯法能够兼顾估计 θ j \theta_j θj 时的这种采样结果的多变性。和估计法一样的地方在于, D j D_j Dj x x x 点的密度归属是通过为密度所假设的模型参数 θ j \theta_j θj 来反映的;和估计法不同的地方在于,贝叶斯法假设这些参数的真实值未知,并把 θ \theta θ 作为一个未知的随机变量,表示为兼顾参数的先验信息,以及数据采集信息的后验概率分布。

公式往往是最直观的,接下来我们来看一下如何用预测性贝叶斯单一估计出 p ( x ∣ θ ^ j ) p(x|\hat{\theta}_j) p(xθ^j)

p ( x ∣ ϖ j ) = ∫ p ( x , θ j ∣ D j ) d θ j = ∫ p ( x ∣ θ j , D j ) p ( θ j ∣ D j ) d θ j = ∫ p ( x ∣ θ j ) p ( θ j ∣ D j ) d θ j p(x|\varpi_j)=\int p(x,\theta_j|D_j)d\theta_j=\int p(x|\theta_j,D_j)p(\theta_j|D_j)d\theta_j=\int p(x|\theta_j)p(\theta_j|D_j)d\theta_j p(xϖj)=p(x,θjDj)dθj=p(xθj,Dj)p(θjDj)dθj=p(xθj)p(θjDj)dθj

其中, p ( θ j ∣ D j ) p(\theta_j|D_j) p(θjDj) θ j \theta_j θj 的贝叶斯后验概率密度函数。由贝叶斯定理, θ j \theta_j θj 的后验概率密度又可表示为:

p ( θ j ∣ D j ) = p ( D j ∣ θ j ) p ( θ j ) p ( D j ) = p ( D j ∣ θ j ) p ( θ j ) ∫ p ( D j ∣ θ j ′ ) p ( θ j ′ ) d θ j ′ p(\theta_j|D_j)=\frac{p(D_j|\theta_j)p(\theta_j)}{p(D_j)}=\frac{p(D_j|\theta_j)p(\theta_j)}{\int p(D_j|\theta'_j)p(\theta'_j)d\theta'_j} p(θjDj)=p(Dj)p(Djθj)p(θj)=p(Djθj)p(θj)dθjp(Djθj)p(θj)

  • p ( θ j ) p(\theta_j) p(θj) 的是参数为 θ j \theta_j θj 的先验密度。
  • p ( D j ∣ θ j ) p(D_j|\theta_j) p(Djθj) 是似然函数,是以 θ j \theta_j θj 为参数的数据样本 D j D_j Dj 的概率密度。

基本原理

贝叶斯统计关注的是根据观测数据更新未知参数的先验置信度的问题。先验置信度用参数的先验分布表示,给定观测数据下的参数分布是似然分布,更新的参数置信度被视为后验分布,它与贝叶斯定理的先验分布和似然分布相关。

设数据 D D D 的概率密度函数 p ( D ∣ θ ) p(D|\theta) p(Dθ) 取决于参数向量 θ \theta θ 。这个密度函数称为似然函数,是 θ \theta θ 的函数。参数 θ \theta θ 确定但未知,我们希望确定 θ \theta θ 的估计值。贝叶斯认为, θ \theta θ 是随机变量的一个实现,具有表示 θ \theta θ 的先验知识的先验概率密度函数 p ( θ ) p(\theta) p(θ) 。观测到数据 D D D 后, θ \theta θ 的置信度由 θ \theta θ 的后验概率密度表示。

由贝叶斯定理可得:

p ( θ ∣ D ) = p ( D ∣ θ ) p ( θ ) ∫ θ ′ p ( D ∣ θ ′ ) p ( θ ′ ) d θ ′ p(\theta|D)=\frac{p(D|\theta)p(\theta)}{\int_{\theta'} p(D|\theta')p(\theta')d\theta'} p(θD)=θp(Dθ)p(θ)dθp(Dθ)p(θ)

在离散情况下,

p ( θ ∣ D ) = p ( D ∣ θ ) p ( θ ) ∑ θ ′ p ( D ∣ θ ′ ) p ( θ ′ ) d θ ′ p(\theta|D)=\frac{p(D|\theta)p(\theta)}{\sum_{\theta'} p(D|\theta')p(\theta')d\theta'} p(θD)=θp(Dθ)p(θ)dθp(Dθ)p(θ)

θ \theta θ 的后验密度表示的是从观测数据 D D D 所获得信息对 θ \theta θ 分布的修正。后验分布可以提供欲知的有关 θ \theta θ 的一切信息,并能用来进行综合统计计算。通常,函数 h ( θ ) h(\theta) h(θ) 的后验期望由下式计算:

E [ h ( θ ) ∣ D ] = ∫ h ( θ ) p ( D ∣ θ ) p ( θ ) d θ ∫ p ( D ∣ θ ) p ( θ ) d θ E[h(\theta)|D]=\frac{\int h(\theta)p(D|\theta)p(\theta)d\theta}{\int p(D|\theta)p(\theta)d\theta} E[h(θ)D]=p(Dθ)p(θ)dθh(θ)p(Dθ)p(θ)dθ

递归计算

设数据 D D D n n n 个测量向量组成,即 D = { x 1 , . . . , x n } D=\lbrace x_1,...,x_n \rbrace D={ x1,...,xn} ,如果其中的 x i x_i xi 能够连续地获得并且是条件独立的, p ( θ ∣ D ) p(\theta|D) p(θD) 可改写成:

p ( θ ∣ x 1 , . . . , x n ) = p ( x n ∣ θ ) p ( θ ∣ x 1 , . . . , x n − 1 ) ∫ p ( x n ∣ θ ′ ) p ( θ ′ ∣ x 1 , . . . , x n − 1 ) ) d θ ′ p(\theta|x_1,...,x_n)=\frac{p(x_n|\theta)p(\theta|x_1,...,x_{n-1})}{\int p(x_n|\theta')p(\theta'|x_1,...,x_{n-1}))d\theta'} p(θx1,...,xn)=p(xnθ)p(θx1,...,xn1))dθp(xnθ)p(θx1,...,xn1)

依此类推,步骤重复 n n n 次,即可获得后验概率。

比例性

概率密度函数的标准化约束:

∫ p ( θ ∣ D ) d θ = 1 \int p(\theta|D)d\theta=1 p(θD)dθ=1

可以将后验密度函数表示为:

p ( θ ∣ D ) = g ( θ , D ) ∫ g ( θ ′ , D ) d θ ′ p(\theta|D)=\frac{g(\theta,D)}{\int g(\theta',D)d\theta'} p(θD)=g(θ,D)dθg(θ,D)

有了比例性之后,我们可以简化贝叶斯的求解过程。

结语

在后面的文章中,我们会介绍贝叶斯法的解析法和数值法。并将介绍马尔科夫链蒙特卡罗方法、变分贝叶斯近似等方法。

在这里还是感谢一路走来对我默默支持的朋友们,你们的鼓励是我成文的最大动力。谢谢大家,如果各位读者有任何想法,欢迎在评论区里留言,谢谢大家。

猜你喜欢

转载自blog.csdn.net/qq_44868018/article/details/108186125