【概率&期望】
公式
1. 条件概率
\(P(A|B)\)表示在\(B\)事件发生的前提下,\(A\)事件的概率
\(P(A|B)=\dfrac{P(AB)}{P(B)}\)
证明:
显然有\(P(A|B)P(B)=P(AB)\),把\(P(B)\)除过去即可。
2. 全概率公式
设\(B_1,B_2,\cdots ,B_n\)是样本空间的一个划分,则:
\(\begin{aligned}P(A)&=\sum_{i=1}^nP(A|B_i)P(B_i)\end{aligned}\)
证明:
\(P(A|B_i)P(B_i)\)实际上就是\(P(AB_i)\),可以考虑一个维恩图,用面积来证明。
这里给出代数证明:
\(\begin{aligned}P(A)&=P(A\Omega)\\&=P(A\cup_{i=1}^nB_i)\\&=P(\cup_{i=1}^nAB_i)\\&=\sum_{i=1}^nP(AB_i)\\&=\sum_{i=1}^nP(A|B_i)P(B_i) \end{aligned}\)
3. 随机变量
首先要明白:随机变量并不随机,他是一个确定的函数。
定义:随机变量是从样本空间到实数集的一个映射\(X\)(也就是定义域是事件,值域是实数),如果\(X(A)=a\),说明当随机试验取结果\(A\)时,该随机变量取值为\(a\)。因此“随机变量取值为a”正好对应一个能实现该命题的单位事件集合,因此它也是一个事件,简记为\(X=a\),于是也有与之相对的概率\(P(X=a)\)。
例如扔骰子,可以定义一个随机变量\(X(x)\),表示扔到的点数。
再比如扔硬币,可以定义一个随机变量\(Y(x)\),正面朝上时值为\(1\),反面朝上值为\(0\)。
随机变量有离散型和连续型两种,离散型指取值有限或可数,上面提到的都是离散型。连续型在OI中很少出现,这里给出一个例题(需要用到期望知识,可以先往下看完,再回来看这个题):
P5104 红包发红包
如果当前有\(w\)元,那么感性理解或者类比离散型随机变量可以得到下一个人期望拿到\(\frac{w}{2}\)元,
设\(f_i\)表示第i个人拿的钱数,那么有\(E(f_i)=\frac{w-\sum_{j=1}^{i-1}f_j}{2}\),接下来用到一个性质:期望的期望=期望,即\(E(E(X))=E(X)\),证明很简单,考虑E(X)是一个确实的实数,那么实数的期望显然等于这个实数。
所以\(E(f_i)=E(\frac{w-\sum_{j=1}^{i-1}f_j}{2})\),然后利用期望的线性性展开该式,再利用一点处理和式的技巧,就可以得出\(2E(f_i)=E(f_{i-1})\),并且\(f_1=\frac{w}{2}\),用快速幂求解即可。
随机变量是根据题目需要来定义的。
4. 独立性
我们称两个事件\(A,B\)独立,当且仅当\(P(AB)=P(A)P(B)\),结合条件概率可知,实际上,上式等价于\(P(A|B)=P(A)\)或者\(P(B|A)=P(B)\)。直观地说,就是不论\(A/B\)是否发生,\(B/A\)的概率都不变。
虽说这是定义,但通常我们会根据人类智慧,判断出事件独立,然后把\(P(AB)=P(A)P(B)\)当做性质用。
5. 期望的定义
期望可以理解为把随机变量映射到实数的一个函数。它的物理意义是:当进行大量的随机试验后,每次得到的随机变量的平均值趋近于这个随机变量的期望。
一般OI中常出现的是离散型随机变量的期望。
一般用\(E(X)\)表示,有两种等价的定义:
\(E(X)=\sum\limits_{\omega}X(w)P(w)=\sum\limits_{a\in I(X)}aP(X=a)\),其中\(I(X)\)表示\(X\)的值域。
证明:
考虑两个式子的含义:第一个表示对样本空间中每个样本点用它对应的随机变量值乘上它的概率,第二个表示对于每个值\(a\)求\(a\)乘上随机变量取值为\(a\)的概率。
实际上可以把第二个式子看做对第一个式子的打包。把第二个式子拆成若干个样本点,可以发现与第一个式子是等价的。
一般来说期望可以先考虑根据两个定义来求。
例题1P6154
可以根据第二个定义来求,即对于每个值,求出这个值出现的概率并加权平均然后转化成总的路径长度和除以总路径条数。
例题2P3802。
可以考虑第一个定义,先强制让同种类型的魔法编号,这样对于每个可能的魔法序列,出现概率相同都为\(\frac{1}{S!}\),其中\(S=\sum_{i=1}^7a_i\),再考虑每种情况下触发的七重奏的数量,如果直接计算每种情况的话显然复杂度是爆炸的,但是由于每个情况的概率都相同,我们把这个概率提出来,问题就变成了求所有情况下所有七重奏的数量和,那么我们类似交换求和顺序,考虑求出每个位置触发七重奏时,有多少个情况可以触发,剩下的就是推式子了。
6. 期望的线性性质
\(E(aX+bY)=aE(X)+bE(Y)\)
首先\(aX\)表示,\(X\)值域中的每个值都乘上\(a\)得到的新的随机变量,因此,显然有\(E(aX)=aE(X)\)。
再考虑\(E(X+Y)=E(X)+E(Y)\)。我们规定\(X\)和\(Y\)的样本空间相同
证明:
\(\begin{aligned}\\E(X)&=\sum_wX(w)P(w),E(Y)=\sum_wY(w)P(w)\end{aligned}\)
\(\begin{aligned}\\E(X+Y)&=\sum_w(X+Y)(w)P(w)\\&=\sum_w(X(w)+Y(w))P(w)\\&=\sum_wX(w)P(w)+Y(w)P(w)\\&=(\sum_wX(w)P(w))+(\sum_wY(w)P(w))\\&=E(X)+E(Y) \end{aligned}\)
从推导中可以看出,期望的线性性质是不要求随机变量互相独立的,在任意条件下都适用。
该性质往往与定义或全期望公式配合使用。
例题
首先设\(f_i\)为一个随机变量,当点i被选中时,值为1,没被选中时,值为0,那么答案即为\(E(\sum_{i=1}^nf_i)\)
根据期望的线性性,有\(E(\sum_{i=1}^nf_i)=\sum_{i=1}^nE(f_i)\),其中根据定义\(E(f_i)=P(i)\),其中\(P(i)\)表示i被选中的概率。
问题转化为求\(P(i)\),设\(d_i\)为点i的深度,那么\(P(i)=\frac{1}{d_i}\)
证明:
任意一点最终一定会被删除,且一定是他的某个祖先删除他,实际上每个祖先删除它的概率是相等的。原因考虑某个祖先删除这个点的概率,用全概率公式,枚举之前所有可能的操作顺序\(g\),用\(P(操作顺序为g)\times P(下一个删除的数为这个祖先|之前的操作顺序为g)\)求和即为该祖先删除这个点的概率,然后发现对于任意一个祖先,可能的操作顺序,及其概率都相同,所以每个祖先删除它的概率相同。所有他被自己删除的概率即为\(P(i)=\frac{1}{d_i}\)
7. 全期望公式
\(E(Y)=\sum\limits_{a\in I(X)}P(X=a)E(Y|(X=a))\),其中\(E(Y|A)是在A成立的条件下Y的期望\)
注意到当\(Y=X\)时,上式与定义2是相同的。这个公式可以常用来推期望dp时,把当前状态分成几类,用每一类的概率乘上这一类的期望。
8.乘积的期望
当两个随机变量\(X,Y\)相互独立时,\(E(XY)=E(X)E(Y)\)
题目
1. P1654 OSU!
首先,期望dp有个常见的技巧,就是先把所有随机的,不确定的因素都把它想象成确定的,然后思考在确定的情况下,如何求得题目中的答案,我们用这个思路来做这个题。
对应到这个题目,相当于把每次成功想象成确定的,即假设题目给你一个01串,你如何用dp求得答案,设\(f_i\)表示前i个位置的分数,\(l_i\)为第i个位置向左延伸的1的长度。
那么有
2. P4457 [BJOI2018]治疗之雨
其实是比较经典的模型,考虑一个n个点的有向图,\(P(i,j)\)表示在点i处时,下一步走到点j的概率,对每个点求出\(f_i\)表示从点i开始走期望走多少步能够第一次到达点t。
有\(\begin{cases}f_t=0\\f_i=(\sum_{j=1}^nP(i,j)f_j)+1&(i\neq t)\end{cases}\),对1~n每个点都列一个方程,一共n个方程,n个未知数,可以用高斯消元处理。
那么是否一定只有一组解呢?会不会无解呢?我们可以先从每个点开始遍历一遍,只有当这个点能走到t且不会走到一个一个环中时,这个t才有值,我们可以只把这样的点列入方程,这样未知数和方程的数量一定相同,一定能接出一组解。

浙公网安备 33010602011771号