摘要: 信息论 信息熵:一个随机变量 \(x\) 的信息熵为 \(H(x)=-\sum p_i\log p_i\),\(p_i\) 为取 \(i\) 的概率。 -> \(1\sim n\) 随机变量熵为 \(\log n\)。 -> 恒为 \(1\) 的一个变量没有任何信息。 -> 均匀分布变量的信息熵是最 阅读全文
posted @ 2025-02-07 17:54 s1monG 阅读(30) 评论(0) 推荐(0)