真假诺即是唯一真神。

本文全文转载自 Entropy Increaser 的博客: 「营业日志 2020.11.21」随机父节点树的期望树高 - Entropy Increaser - CSDN,希望我有朝一日学会数学。


这里的树高是最大深度,不能用第 \(n\) 个点的期望深度来计算。

\(h\) 为树高,\(\mathrm{dep}_i\) 表示 \(i\) 的深度。由琴声不等式,\(2^{\mathbf E[X]}\le\mathbf E\left[2^X\right]\),因此:

\[\begin{aligned} 2^{\mathbf E\left[h\right]}&\le\mathbf E\left[2^h\right]\\&\le \mathbf E\left[\sum_{k=1}^n2^{\mathrm{dep}_k}\right]\\&= \sum_{k=1}^n\mathbf E\left[2^{\mathrm{dep}_k}\right]. \end{aligned} \]

\(F_k=\mathbf E\left[2^{\mathrm{dep}_k}\right]\)\(S_k=\sum_{j=1}^kF_j\)。求 \(S_k\) 的封闭形式并无困难。

读者自推不难

注意到 \(F_k\) 有递推式:

\[F_1=2,\\ F_k=\dfrac2{k-1}\sum_{j=1}^{k-1}F_j,k>1. \]

则:

\[S_1=2,\\ S_k-S_{k-1}=\dfrac2{k-1}S_{k-1},k>1. \]

就有:

\[S_k=\dfrac{k+1}{k-1}S_{k-1}=\dfrac{(k+1)k(k-1)\cdots\times3}{(k-1)(k-2)\cdots\times 1}S_{1}=k(k+1),k>1. \]

于是:

\[\begin{aligned} S_n&=\sum_{k=1}^n\mathbf E\left[2^{\mathrm{dep}_k}\right]\\&= n(n+1) \end{aligned} \]

\(\mathbf E[h]\le\log_2S_n=\log_2 n(n+1)\le2\log_2n+\Theta(1)\)。又 \(\mathbf E[h]\ge\mathbf E[\mathrm{dep}_n]=\Theta(\log n)\),由此,我们证明了,\(n\) 个结点的随机树高是期望 \(\Theta(\log n)\) 级别的。

posted @ 2024-04-16 21:51  Network_Error  阅读(37)  评论(0)    收藏  举报