机器学习中,信息论中的各种熵在多次出现(最大熵模型、CRF、广义线性模型中以及分类问题中损失中的交叉熵,t-SNE、GAN中使用的KL散度等),这里做一个简单总结。

1、信息量

定义

单个事件的不确定性的大小。

数学形式

$log\frac{1}{p(x)}=-logp(x)$

特点

不确定性越大,信息量越大。

 

2、信息熵

定义

信息量的期望

数学形式

$H(x)=-\sum p(x)logp(x)$

物理含义

一种解释是,信息熵表示最短的平均编码长度。

性质

不确定性越大,信息熵越大。

 

3、联合熵

定义

两个事件同时发生的不确定性。

数学形式

$H(X,Y)=-\sum p(x,y)logp(x,y)$

 

4、条件熵

定义

已知条件下的,事件的不确定性的大小。

数学形式

$H(Y|X) = \sum p(x) H(Y|X=x) = -\sum p(x) \sum p(y|x)logp(y|x)$

性质

熵、条件熵、联合熵满足:$H(X,Y)=H(X)+H(Y|X)=H(Y)+H(X|Y)$

 

5、互信息/信息增益

定义

在没有任何条件时,不确定性最高;在给定一个条件后,不确定性可能减少。互信息就是不确定性减少的度量。

数学形式

$I(X,Y)=H(X)-H(X|Y)$

性质

$I(X,Y)=H(X)-H(X|Y)=H(Y)-H(Y|X)$

tips:

根据以上信息,我们可以得出信息熵、联合熵、条件熵、互信息/信息增益的关系,如下韦恩图:

 

6、交叉熵

定义

这个定义我也不知道怎么下了!!!

数学形式

$H_c(p, q) = - \sum p(x)logq(x)$

物理含义

可以理解为,使用一种编码,来记录另一个数据分布,需要的平均编码长度。

 

7、相对熵/KL散度

数学形式

$KL(p, q) = \sum p(x)log\frac{p(x)}{q(x)} = H(p, q)-H(p)$

物理含义

使用另一种编码,来编码自身分布,需要额外增加的编码长度。

 

如果发现文中有问题,敬请联系作者批评指正,真诚欢迎您的指教,谢谢!

微信: legelsr0808

邮箱: legelsr0808@163.com