期望与方差以及联合概率分布

1、期望
离散随机变量
E ( x ) = x P ( x ) x E(x) = \sum_{x}^{ } P(x)x
连续随机变量
E ( x ) = x P ( x ) x d x E(x)= \int_{x}^{ } P(x)xdx
2、方差
离散随机变量
E ( x ) = x P ( x ) ( x E ( x ) ) 2 E(x) = \sum_{x}^{ } P(x)(x-E(x))^{2}
连续随机变量
E ( x ) = x P ( x ) ( x E ( x ) ) 2 d x E(x)= \int_{x}^{ } P(x)(x-E(x))^{2}dx
3、联合概率
独立 发生
P ( X , Y ) P ( X ) P ( Y ) P(X,Y)\neq P(X)P(Y)
非独立发生,条件的概率
P ( X , Y ) = P ( X ) P ( Y ) P(X,Y)=P(X)P(Y|)
贝叶斯定理,从先验概率预计后验概率。
P ( Y X ) = P ( X Y ) P ( Y ) P ( X ) P(Y|X)=\frac{P(X \mid Y)P(Y)}{P(X)}
协方差,2个随机变量的相关关系
协方差表示的是两个变量的总体的误差,这与只表示一个变量误差的方差不同。 如果两个变量的变化趋势一致,也就是说如果其中一个大于自身的期望值,另外一个也大于自身的期望值,那么两个变量之间的协方差就是正值。 如果两个变量的变化趋势相反,即其中一个大于自身的期望值,另外一个却小于自身的期望值,那么两个变量之间的协方差就是负值。
如果X与Y是统计独立的,那么二者之间的协方差就是0,因为两个独立的随机变量满足 E [ X Y ] = E [ X ] E [ Y ] E[XY]=E[X]E[Y]
C o v ( X , Y ) = E [ X Y ] E [ X ] E [ Y ] Cov(X,Y)=E[XY]-E[X]E[Y]

发布了385 篇原创文章 · 获赞 13 · 访问量 5万+

猜你喜欢

转载自blog.csdn.net/AI_LX/article/details/104300015