2019年9月16日

信息论_熵

摘要: 信息论主要是对信号所含信息的多少进行量化,其基本思想是一个不太可能发生的事情要比一个可能发生的事情提供更多的信息。 度量信息的集中常用指标有信息熵、条件熵、互信息、交叉熵。 信息熵 信息熵(entropy)简称熵,是对随机变量不确定性的度量。定义为: H(x)=∑pi*log2(pi) 用以下代码来 阅读全文

posted @ 2019-09-16 20:49 rebel3 阅读(394) 评论(0) 推荐(0) 编辑

导航