信息熵

对一个系统,我们到底知道多少信息,再反过来,0,代表着不确定性为零,我们知道系统的所有信息;

累加(概率×log概率的倒数);

信息熵代表着这个系统的不确定性,熵越大,不确定性就越高;

 

posted @ 2018-08-10 21:38  loooffeeeey  阅读(84)  评论(0)    收藏  举报