概率与数学期望

这个数学知识点很容易和其他有关的内容结合起来考。其中有几个性质值得我们注意。

1.1 概率定义

我们经常会做一些随机性的实验。实验往往会给出不同的结果,我们称之为样本点。我们把所有样本点构成的集合叫做样本空间,记为\(\Omega\)

在这个样本空间里,我们称一个随机事件是样本空间\(\Omega\)的子集。这里算是扫清了过去的知识盲区:随机事件是一个集合,而不是真的是一个概念上的事件

对于一个随机事件\(A\),我们可以定义一个数来衡量它在样本空间的“比重”,那就是概率。随机事件\(A\)的概率记作\(P(A)\)。由于每个随机事件包含一系列样本点,而样本点是一个随机的结果,故概率\(\text{P}(A)\)可以看作是随机事件中,所有样本点发生的可能性

概率有如下几个性质:

  1. \(\text{P}(A) \geqslant 0\)
  2. \(\text{P}(\Omega) = 1\)
  3. 对于若干个两两互斥事件 $A_1,A_2,\cdots $ ,有 \(\sum \text{P}(A_i) = \text{P}(\bigcup A_i)\)

所谓的两两互斥,指的是\(\bigcap A_i = \varnothing\) ,即没有公共的样本点。

条件概率。有些随机事件可能有相互关联和依赖的关系。我们把”在事件\(B\)发生的条件下,\(A\)的概率“记作\(\text{P}(A | B)\)。注意到条件是放在后面的。

如果我们把\(A,B\)事件同时发生记作\(AB\),那么我们有:\(\text{P}(AB)=\text{P}(A)\text{P}(B | A) = \text{P}(B)\text{P}(A | B)\)

如果消去\(\text{P}(AB)\),我们就可以得到一个公式:
\[ \text{P}(A | B)=\dfrac{\text{P}(A)\text{P}(B | A)}{\text{P}(B)} \]
这个是贝叶斯公式的简单形式。它的完整形式如下:
\[ P(B_i | A) = \dfrac{P(B_i) P (A | B_i)}{\sum_{j=1}^n P(B_j)P(A | B_j)} \tag{1} \]
公式摘自百度百科。可以自行查找有关资料。

除此之外,我们还有全概率公式:
\[ P(B) = \sum_{i=1}^n P(A_i)P(B | A_i) \tag{2} \]
其中\(A_1,A_2,\cdots,A_n\)两两互斥,且构成样本空间。

在之后的概率DP中,这种思想会得到体现。在求数学期望的时候,除了要算上“选取方案”的概率\(p\),还要算上"不选取方案"的对应概率\(1-p\)

随机变量

一种函数。更准确地来说,是一种映射,从样本空间到实数域的映射,也就是\(X : \Omega \rightarrow \mathbb{R}\)

随机变量可以看成“记录实验的参数”。它分为离散型和连续性。鉴于后者的计算要用到积分,现阶段我们只研究前者。

如果随机变量的取值$X = x_1 , x_2 , \cdots \(,那么\)X = x_i\(就是一个随机事件。每一个取值都可以对应一个概率\)p_i = P(X = x_i)$。

数学期望

随机变量“最有可能的取值”,记作\(E(X)\)。按照定义,其计算方式为:
\[ E(X) = \sum_{i = 1} ^{k} p_i x_i \\ X = x_1 , x_2 , \cdots , x_k \]
显然的,有时候随机变量的值是实际上根本取不到的。但多次实验之后,随机变量的值和它的数学期望是最为接近的。

数学期望,同样的,是个函数。(但如果随机变量也是个函数,数学期望就应叫做“泛函”了。)它是一个线性函数,而且满足:
\[ E(aX + bY) = aE(X)+bE(Y) \]
其中\(a,b\)是常数。

随机变量的常数可以看做“事件的叠加”,即“重复试验,再将取值求和”。举个例子,\(X\)如果表示投掷一枚骰子的点数,那么\(2X\)就表示投出两枚骰子的点数和。这样计算会更为方便。

\[ E(X) = \dfrac{1+2+3+4+5+6}{6} = \frac{7}{2} \\ E(2X) = 7 \]

可以自己用两个骰子模拟一下,看看投出的点数和是不是和\(7\)比较接近。

概率论在动态规划中的应用

概率DP。这算是比较常见的一类DP。

概率DP的转移比较有特点:一般都是逆推为主。

考虑一个表示数学期望的状态\(f<state>\)

到终态\(T\)时的期望\(f<T>\)一般比较好求,可以直接算出来。

由状态\(state\)转移到后继状态\(state_1 , state_2 , \cdots\),转移的概率分别是\(p_1,p_2,\cdots,\)有:
\[ f<state> \rightarrow \begin{cases} f<state_1>p_1 \\ f<state_2>p_2 \\ \vdots \end{cases} \]

我们根据概率的定义,可以得到DP的大致方程:
\[ f<state> = \sum p_i f<state_i> \]
其中\(state_i\)\(state\)的后继状态。

根据终态\(f<T>\)就可以逆推出\(f<S>\)了。

猜你喜欢

转载自www.cnblogs.com/LinearODE/p/10809021.html