摘要: 1.熵 信息量是对信息的度量,信息的大小跟随机事件的概率有关,越小概率的事情发生了产生的信息量越大。 信息量度量的是一个具体事件发生了所带来的信息,而熵则是在结果出来之前对可能产生的信息量的期望,考虑该随机变量的所有可能取值,即所有可能发生事件所带来的信 息量的期望。即 $H(x)=-\sum_{i 阅读全文
posted @ 2020-10-21 21:56 流年记忆 阅读(479) 评论(0) 推荐(0)