概率论:3.4参数的估计


本课程来自 深度之眼,部分截图来自课程视频。
【第三章 概率论】3.3期望与方差
在线LaTeX公式编辑器

任务详解:

掌握矩估计和极大似然估计算法

1.矩估计

算一些矩的统计量。之前算的期望实际上是一阶矩统计
+ x f ( x ) d x \int_{-\infty}^{+\infty}xf(x)dx
方差实际上是二阶矩统计
+ x 2 f ( x ) d x \int_{-\infty}^{+\infty}x^2f(x)dx
下面看k阶矩统计。
X X 为连续型随机变量,其概率密度为 f ( x ; θ 1 , θ 2 , , θ k ) f(x;\theta_1,\theta_2,\cdots,\theta_k) ,或 X X 为离散型随机变量,其分布律为 P { X = x } = p ( x ; θ 1 , θ 2 , , θ k ) P\{X=x\}=p(x;\theta_1,\theta_2,\cdots,\theta_k) ,其中 θ 1 , θ 2 , , θ k \theta_1,\theta_2,\cdots,\theta_k 为待估参数, X 1 , X 2 , , X n X_1,X_2,\cdots,X_n 是来自 X X 的样本。假设总体 X X 的前 k k 阶矩:
连续型:
μ l = E ( X l ) = + x l f ( x ; θ 1 , θ 2 , , θ k ) d x , l = 1 , 2 , , k \mu_l=E(X^l)=\int_{-\infty}^{+\infty}x^lf(x;\theta_1,\theta_2,\cdots,\theta_k)dx,l=1,2,\cdots,k
离散型:
μ l = E ( X l ) = x R X x l p ( x ; θ 1 , θ 2 , , θ k ) , l = 1 , 2 , , k \mu_l=E(X^l)=\sum_{x\in R_X}x^lp(x;\theta_1,\theta_2,\cdots,\theta_k),l=1,2,\cdots,k
k k 阶矩中,x都被积分积掉,或者求和求掉,所以这 k k 阶矩的 μ 1 ( θ 1 , θ 2 , , θ k ) , μ 2 ( θ 1 , θ 2 , , θ k ) , . . . , μ l ( θ 1 , θ 2 , , θ k ) \mu_1(\theta_1,\theta_2,\cdots,\theta_k),\mu_2(\theta_1,\theta_2,\cdots,\theta_k),...,\mu_l(\theta_1,\theta_2,\cdots,\theta_k) 都是关于参数 θ \theta 函数。

样本矩:
A l = 1 n i = 1 n X i l A_l=\frac{1}{n}\sum_{i=1}^nX_i^l
一阶样本矩:
A 1 = x 1 + x 2 + , , , + x n n A_1=\frac{x_1+x_2+,,,+x_n}{n}
二阶样本矩:
A 2 = x 1 2 + x 2 2 + , , , + x n 2 n A_2=\frac{x_1^2+x_2^2+,,,+x_n^2}{n}
l l 阶样本矩:
A l = x 1 l + x 2 l + , , , + x n l n A_l=\frac{x_1^l+x_2^l+,,,+x_n^l}{n}
然后样本矩与 k k 阶矩有相等的关系(这个就是矩估计的假设)
A 1 = μ 1 , A 2 = μ 2 , . . . , A l = μ l A_1=\mu_1,A_2=\mu_2,...,A_l=\mu_l
---------------------------------------------------------割你没商量1------------------------------------------------------
看不懂就看例子
例2设总体X在[a,b]上服从均匀分布,a,b未知. X 1 , X 2 , , X n X_1,X_2,\cdots,X_n 是来自X的样本,试求a,b的矩估计量。
均匀分布的公式为:
f ( x ) = { 1 b a , a < x < b 0 , f(x)=\begin{cases}\cfrac{1}{b-a},a<x<b\\0,\quad 其他\end{cases}
现在要解出a和b,所以要算两个矩统计的方程来解出a和b:
μ 1 = E ( X ) = ( a + b ) / 2 \mu_1=E(X)=(a+b)/2
μ 2 = E ( X 2 ) = D ( X ) + [ E ( X ) ] 2 = ( b a ) 2 / 12 + ( a + b ) 2 / 4 \mu_2=E(X^2)=D(X)+[E(X)]^2=(b-a)^2/12+(a+b)^2/4
得到一组方程组:
{ a + b = 2 μ 1 b a = 12 ( μ 2 μ 1 2 ) \left\{\begin{matrix} a+b=2\mu_1\\ b-a=\sqrt{12(\mu_2-\mu_1^2)} \end{matrix}\right.
解方程组得:
a = μ 1 3 ( μ 2 μ 1 2 ) , b = μ 1 + 3 ( μ 2 μ 1 2 ) a=\mu_1-\sqrt{3(\mu_2-\mu_1^2)},b=\mu_1+\sqrt{3(\mu_2-\mu_1^2)}
然后用样本矩A来替换 μ \mu
A 1 = x 1 + x 2 + , , , + x n n = X A_1=\frac{x_1+x_2+,,,+x_n}{n}=\overline{X}
A 2 = x 1 2 + x 2 2 + , , , + x n 2 n A_2=\frac{x_1^2+x_2^2+,,,+x_n^2}{n}
得到a,b的矩估计量分别为:
a ^ = A 1 3 ( A 2 A 1 2 ) \widehat a=A_1-\sqrt{3(A_2-A_1^2)}
b ^ = A 1 + 3 ( A 2 A 1 2 ) \widehat b=A_1+\sqrt{3(A_2-A_1^2)}
---------------------------------------------------------割你没商量1------------------------------------------------------
---------------------------------------------------------割你没商量2------------------------------------------------------
下面看一个高斯分布的例子:
例3设总体 X X 的均值 μ \mu 及方差 σ 2 \sigma^2 都存在,且有 σ 2 > 0 \sigma^2>0 μ \mu σ 2 \sigma^2 均为未知.
又设 X 1 , X 2 , , X n X_1,X_2,\cdots,X_n 是来自 X X 的样本.试求 μ \mu σ 2 \sigma^2 的矩估计量。
解:
{ μ 1 = E ( X ) = μ , μ 2 = E ( X 2 ) = D ( X ) + [ E ( X ) ] 2 = σ 2 + μ 2 \begin{cases}\mu_1=E(X)=\mu,\\\mu_2=E(X^2)=D(X)+[E(X)]^2=\sigma^2+\mu^2\end{cases}
解得:
{ μ = μ 1 , σ 2 = μ 2 μ 1 2 \begin{cases}\mu=\mu_1,\\\sigma^2=\mu_2-\mu_1^2\end{cases}
分别用 A 1 , A 2 A_1,A_2 代替 μ 1 , μ 2 \mu_1,\mu_2 ,得 μ \mu σ 2 \sigma^2 的矩估计量
μ ^ = A 1 = X \widehat\mu=A_1=\overline{X}
σ 2 ^ = A 2 A 1 2 = 1 n i = 1 n X i 2 X 2 = 1 n i = 1 n ( X i X ) 2 \widehat {\sigma^2}=A_2-A_1^2=\frac{1}{n}\sum_{i=1}^nX_i^2-\overline{X}^2=\frac{1}{n}\sum_{i=1}^n(X_i-\overline{X})^2
---------------------------------------------------------割你没商量2------------------------------------------------------

2.极大似然估计

X 1 , X 2 , , X n X_1,X_2,\cdots,X_n 是来自 X X 的样本
联合概率分布: P ( x 1 , x 2 , , x n ; θ ) = p ( x 1 ; θ ) p ( x 2 ; θ ) p ( x n ; θ ) P(x_1,x_2,\cdots,x_n;\theta)=p(x_1;\theta)p(x_2;\theta)\cdots p(x_n;\theta)
离散型写成:
L ( θ ) = L ( x 1 , x 2 , , x n ; θ ) = i = 1 n p ( x i ; θ ) L(\theta)=L(x_1,x_2,\cdots,x_n;\theta)=\prod_{i=1}^np(x_i;\theta)
连续型写成:
L ( θ ) = L ( x 1 , x 2 , , x n ; θ ) = i = 1 n f ( x i ; θ ) L(\theta)=L(x_1,x_2,\cdots,x_n;\theta)=\prod_{i=1}^nf(x_i;\theta)
要求参数 θ \theta 使得抽到样本 x 1 , x 2 , , x n x_1,x_2,\cdots,x_n 的联合概率最大,也就是把 θ \theta 看成变量,求函数 L ( θ ) L(\theta) 的最大值,求极值的做法通常就是求导:
d d θ L ( θ ) = 0 \frac{d}{d\theta}L(\theta)=0
由于函数 L ( θ ) L(\theta) 是连乘的形式,不好求解,因此把连乘变成连加,套路就是取对数后求导(极大似然变成对数极大似然):
d d θ l n L ( θ ) = 0 \frac{d}{d\theta}lnL(\theta)=0
---------------------------------------------------------割你没商量3------------------------------------------------------
例4:设 X b ( 1 , p ) X\sim b(1,p) . X 1 , X 2 , , X n X_1,X_2,\cdots,X_n 是来自 X X 的样本,求参数p的最大似然估计量
解:设样本 x 1 , x 2 , , x n x_1,x_2,\cdots,x_n 是相应于样本 X 1 , X 2 , , X n X_1,X_2,\cdots,X_n 的一个样本值。X的分布律为:
P { X = x } = p x ( 1 p ) 1 x , x = 0 , 1 P\{X=x\}=p^x(1-p)^{1-x},x=0,1
故似然函数为(这里连乘的指数要累加起来):
L ( p ) = i = 1 n p x i ( 1 p ) 1 x i = p i = 1 n x i ( 1 p ) n i = 1 n x i , L(p)=\prod_{i=1}^np^{x_i}(1-p)^{1-x_i}=p^{\sum_{i=1}^nx_i}(1-p)^{n-\sum_{i=1}^nx_i},
走对数似然函数的套路:
l n L ( p ) = ( i = 1 n x i ) l n p + ( n i = 1 n x i ) l n ( 1 p ) , lnL(p)=(\sum_{i=1}^nx_i)lnp+(n-\sum_{i=1}^nx_i)ln(1-p),

d d p l n L ( p ) = i = 1 n x i p n i = 1 n x i 1 p = 0 , \frac{d}{dp}lnL(p)=\frac{\sum_{i=1}^nx_i}{p}-\frac{n-\sum_{i=1}^nx_i}{1-p}=0,
解得p的最大似然估计值
p ^ = 1 n i = 1 n x i = x ˉ , \widehat p=\frac{1}{n}\sum_{i=1}^nx_i=\bar{x},
p的最大似然估计量为
p ^ = 1 n i = 1 n X i = X ˉ . \widehat p=\frac{1}{n}\sum_{i=1}^nX_i=\bar{X}.
---------------------------------------------------------割你没商量3------------------------------------------------------
---------------------------------------------------------割你没商量4------------------------------------------------------
高斯分布用最大似然估计来搞搞。
例5:设 X N ( μ , σ 2 ) X\sim N(\mu,\sigma^2) μ , σ 2 \mu,\sigma^2 为未知参数, x 1 , x 2 , , x n x_1,x_2,\cdots,x_n 是来自 X X 的样本,求 μ , σ 2 \mu,\sigma^2 的最大似然估计量。
:X的概率密度为
f ( x ; u , σ 2 ) = 1 2 π σ e x p [ 1 2 σ 2 ( x μ ) 2 ] f(x;u,\sigma^2)=\frac{1}{\sqrt{2\pi\sigma}}exp[-\frac{1}{2\sigma^2}(x-\mu)^2]
似然函数为:
L ( u , σ 2 ) = i = 1 n 1 2 π σ e x p [ 1 2 σ 2 ( x i μ ) 2 ] = ( 2 π ) π / 2 ( σ 2 ) π / 2 e x p [ 1 2 σ 2 i = 1 n ( x i μ ) 2 ] L(u,\sigma^2)=\prod_{i=1}^n\frac{1}{\sqrt{2\pi\sigma}}exp[-\frac{1}{2\sigma^2}(x_i-\mu)^2]\\ =(2\pi)^{-\pi/2}(\sigma^2)^{-\pi/2}exp[-\frac{1}{2\sigma^2}\sum_{i=1}^n(x_i-\mu)^2]
走对数似然套路:
l n L = n 2 l n ( 2 π ) n 2 l n σ 2 1 2 σ 2 i = 1 n ( x i μ ) 2 lnL=-\frac{n}{2}ln(2\pi)-\frac{n}{2}ln\sigma^2-\frac{1}{2\sigma^2}\sum_{i=1}^n(x_i-\mu)^2
令:
{ μ l n L = 1 σ 2 ( i = 1 n x i n μ ) = 0 , σ 2 l n L = n 2 σ 2 + 1 2 ( σ 2 ) 2 i = 1 n ( x i μ ) 2 = 0. \begin{cases} \cfrac{\partial}{\partial\mu}lnL=\cfrac{1}{\sigma^2}(\sum_{i=1}^nx_i-n\mu)=0, \\ \cfrac{\partial}{\partial\sigma^2}lnL=-\cfrac{n}{2\sigma^2}+\cfrac{1}{2(\sigma^2)^2}\sum_{i=1}^n(x_i-\mu)^2=0. \end{cases}
由前一式解得 μ ^ = 1 n i = 1 n x i = x ˉ \widehat \mu=\cfrac{1}{n}\sum_{i=1}^nx_i=\bar{x} ,代入后一式得 σ 2 ^ = 1 n i = 1 n ( x i x ˉ ) 2 \hat{\sigma^2}=\cfrac{1}{n}\sum_{i=1}^n(x_i-\bar{x})^2 ,因此得 μ , σ 2 \mu,\sigma^2 的最大似然估计量分别为:
μ ^ = X , σ 2 ^ = 1 n i = 1 n ( X i X ˉ ) 2 \widehat \mu=\overline{X},\hat{\sigma^2}=\cfrac{1}{n}\sum_{i=1}^n(X_i-\bar{X})^2
---------------------------------------------------------割你没商量4------------------------------------------------------
---------------------------------------------------------割你没商量5------------------------------------------------------
均匀分布的最大似然估计
例2设总体X在[a,b]上服从均匀分布,a,b未知. x 1 , x 2 , , x n x_1,x_2,\cdots,x_n 是来自X的样本,试求a,b的最大似然估计。
由于所有的样本都是在[a,b]上取的,均匀分布的
均匀分布的公式为:
f ( x ; a , b ) = { 1 b a , a x b 0 , f(x;a,b)=\begin{cases}\cfrac{1}{b-a},a\leq x\leq b\\0,\quad 其他\end{cases}
似然函数为(均匀分布每个样本取的概率都一样,乘起来就是下面):
L ( a , b ) = { 1 ( b a ) n , a x 1 , x 2 , , x n b 0 , L(a,b)=\begin{cases}\cfrac{1}{(b-a)^n},a\leq x_1,x_2,\cdots,x_n\leq b\\0,\quad 其他\end{cases}
这里不用走对数似然的套路,直接分析,要使得似然函数最大,就要使得分母 ( b a ) n (b-a)^n 最小,也就是b和a尽量接近,但是又要包含 x 1 , x 2 , , x n x_1,x_2,\cdots,x_n 这些样本,因此:
a ^ = m i n X i , b ^ = m a x X i \hat{a}=minX_i,\hat{b}=maxX_i
---------------------------------------------------------割你没商量5------------------------------------------------------

发布了140 篇原创文章 · 获赞 35 · 访问量 1万+

猜你喜欢

转载自blog.csdn.net/oldmao_2001/article/details/103804190
今日推荐