会员
周边
新闻
博问
闪存
赞助商
Chat2DB
所有博客
当前博客
我的博客
我的园子
账号设置
会员中心
简洁模式
...
退出登录
注册
登录
Smera1d0
博客园
首页
新随笔
联系
订阅
管理
2025年3月16日
信息论基础(持续更新)
摘要: 熵、相对熵与互信息 熵 定义:一个离散型随机变量 \(X\) 的熵 \(H(X)\) 定义为: \[H(X)=-\sum_{x \in X}p(x) \log p(x) \]注释:\(X\) 的熵又可以理解为随机变量 \(\log \frac{1}{p(X)}\) 的期望值 引理 \(H(X) \g
阅读全文
posted @ 2025-03-16 18:20 Smera1d0
阅读(16)
评论(0)
推荐(0)
公告