摘要: 1.信息论基础 1.1.熵 熵是信息的关键度量,通常指一条信息中需要传输或者存储一个信号的平均比特数。熵衡量了预测随机变量的不确定度,不确定性越大熵越大。 针对随机变量XX,其信息熵的定义如下: 信息熵是信源编码中,压缩率的下限。当我们使用少于信息熵的信息量做编码,那么一定有信息的损失。 1.2.联 阅读全文
posted @ 2018-12-14 22:10 方糖_Sugar 阅读(429) 评论(0) 推荐(0) 编辑