混乱与秩序-熵在机器学习中的应用思想
熵
由来
自然界里,气体分子的扩散,是一个从有序到无序的过程,因为原先泾渭分明的两种气体分子彼此交融;水的蒸发,是一个从有序到无序的过程,因为原先有序排列的水分子变得无序;人类的学习,知识的积累与传播,也是在不断地打破原有的知识结构,形成新的认知。自然界大量的现象,都需要我们创造出一个量,用于数学的刻画一个系统无序的程度。这个量就是熵。
假设现在有一个系统,它有\(n\)种可能的状态,每一状态的概率为\(p_i\),我们为这个系统引入熵函数\(H_n(p_1,p_2,...p_n)\)。这个量应当满足三个性质(公理):
- 1.连续性:\(H_n\)是其变量的连续函数
- 2.极值性:当所有\(p_i=\frac1n\)时,\(H_n\)取最大值
- 3.可加性:\(H_{n+1}\left(p_1,\ldots,(1-q)p_{n+1},qp_{n+1}\right)=H_n(p_1,\ldots,p_n)+p_{n+1}H_2\left(1-q,q\right)\),其中\(0<q<1\),这一点等价于,对于独立随机变量\(X,Y\), 满足\(S[p(x)p(y)]=S[p(x)]+S[p(y)]\)
在这种假设下,由数学推导,熵可以被唯一地定义为(\(\alpha\)是正常数)
对于等概率的情况,即\(p_i=\frac1n\),熵的值为
这与物理学中的玻尔兹曼熵形式一致,\(\alpha\)可以取为\(k_B\)(玻尔兹曼常数)。n就是系统的微观状态数。玻尔兹曼熵定义为
其中\(\Omega\)是系统的微观状态数。\(k_B\)是玻尔兹曼常数。
因此,关于熵的定义,我们总结出如下两种形式
对于给定分布的离散随机变量\(X\),熵定义为:
对于给定分布的连续随机变量\(X\),熵定义为
同时,我们可以自然的得到两种特殊的熵的定义,其一是联合熵
其二是条件熵,我们已经知道,条件分布就是在联合分布\(p(x,y)\)的基础上,已经知道\(\color{red}{p(x)}\)的分布,求\(\color{red}{X}\)确定时,\(\color{red}{Y}\)的分布情况。那么条件熵自然是在联合熵的基础上,再引入\(X\)的熵,所剩下的熵值:
一言以蔽之,条件熵就是说:本来不确定性有\(S[p(x,y)]\)这么多,引入\(p(x)\)能带来量为\(S[p(x)]\)的信息,减少掉一定的不确定性,剩下的不确定性,就是条件熵。
应用
任何排序算法时间复杂度不可超过\(O(n\log n)\)
排序算法的时间复杂度分析是每一个计算机专业学生的必修课。有趣的是,我们可以通过熵直接证明,排序算法的时间复杂度不可能更优于\(O(n\log n)\)。
假设我们现在有\(n\)个元素需要排序,也就是说,这一系统的微观状态数为\(n!\)。利用Stirling公式,我们可以将这一系统的熵写为
在排序算法的时间复杂度分析中,以每一次比较数据为一个单位。事实上,每一次比较最多获取1比特信息,(p=0.5时,S=log2=1比特,比较大小消除了这一p=0.5的不确定性,提供了1bit信息)。因此,排序算法的时间复杂度至少为
决策树
决策树是一类常用的监督学习方法,其核心思想是通过递归地对样本空间进行划分,从而得到一棵树形结构用于分类或回归。决策树的构建过程可以看作是逐步减少不确定性的过程。在每一次分裂中,算法会选择一个最优的特征及其划分方式,使得划分后的子集尽可能“纯净”,即不确定性降低。
在信息论的框架下,不确定性通常通过熵(Entropy)来刻画。设训练样本集合为 \(D\),其中包含 \(K\) 个类别,若第 \(k\) 类样本所占比例为 \(p_k = \frac{|D_k|}{|D|}\),则集合 \(D\) 的熵定义为
熵越大,表示样本类别分布越均匀,系统的不确定性越高。相反,若所有样本都属于同一类别,则熵为 0,不确定性最小。
在选择特征进行划分时,需要度量划分前后不确定性的变化,这就是特征选择的核心。设特征 \(A\) 有取值 \(\{a_1, a_2, \ldots, a_m\}\),将样本集合 \(D\) 按照特征 \(A\) 的取值划分为 \(m\) 个子集 \(D_i = \{x \in D \mid A(x) = a_i\}\),则划分后的条件熵为
信息增益(Information Gain)定义为划分前后熵的减少量:
信息增益越大,说明特征 \(A\) 在当前集合上的分类能力越强,越适合用来进行划分。为了克服信息增益偏向于取值数较多特征的问题,还可以采用信息增益率(Information Gain Ratio):
其中 \(H_A(D) = - \sum_{i=1}^m \frac{|D_i|}{|D|} \log_2 \frac{|D_i|}{|D|}\) 为特征 \(A\) 的固有值熵。信息增益率通过归一化处理,平衡了特征取值数目带来的偏差。
综上所述,决策树的构建依赖于特征选择,而特征选择又基于熵、信息增益及其变种等度量指标。通过不断选择最优特征进行划分,决策树逐步收敛为一种层次化的分类模型,实现从不确定性到确定性的递归逼近。
熵的最大和最小
在机器学习中,我们可以使熵最大或者最小,得到两种截然相反的应用。
最大熵模型
最大熵模型是一种基于信息论的概率模型,它的基本思想是,在已知的条件下,选择熵最大的概率分布。这一思想的出发点,主要基于泛化性能考虑。在训练模型的参数的时候,我们希望模型能够在训练集上表现良好,同时又不希望模型过拟合。这时候,我们就需要最大化模型的熵,把熵最大化意味着选择一种最不确定的分布,信息量最大的分布,这意味着承认我们的无知,选择最少的先验知识和主观假设
假设随机变量 \(X\) 取值于 \(\mathcal{X}\),我们知道关于分布的一些期望约束:
\(\mathbb{E}_p[f_i(X)] = \sum_{x\in\mathcal{X}} p(x)f_i(x) = \mu_i, \quad i=1,\dots,m.\)
此时,我们在仅有的约束条件下,如何得到一个最优的解呢?此时可以利用最大熵原则,也就是求解如下形式的一个优化问题:
最大熵模型在某些情况下可以取得解析解,不过大多数情况只能得到数值解,并且需要付出高昂的计算代价。针对上面的式子,利用拉格朗日乘子法,可以得到分布的形式为指数族分布:
其中
是归一化因子。在下文softmax的推导中,我们会看到这一原理的具体运用。
最小熵模型
最小熵模型则是通过最小化熵来达到特定的目标,什么情况下需要最小呢?比如语言模型,如果生成的句子熵太大,就会杂乱无章;而熵较小,意味着结构更有规律,句子更自然。这里可以理解为“利用已有的规律”,让模型尽可能符合现实世界的有序性。这意味着承认别人的聪明,接纳更多的先验知识和系统客观性质
用数学的语言刻画这一思想,就是:我们希望模型对样本的预测概率分布尽可能“尖锐”,即:
其中 \(\delta_{y,y^*}\) 是 Kronecker δ,当 \(y=y^*\) 时取 1,否则取 0。此时分布的熵:
这意味着预测几乎是确定性的。
在语言模型中,最小熵的思想表现为生成句子要有规律。如果模型分布接近均匀分布(熵大),句子会杂乱无章;而当分布在少数候选词上集中(熵小),句子就更自然。因此,最小熵建模可以用目标函数形式表达为:
即让预测分布的熵尽可能低。
交叉熵&KL散度
在介绍交叉熵与KL散度之前,我们先回顾一下熵的定义。
众所周知,\(p(x)\)描述事件\(x\)发生的概率,那么我们可以把\(\log\frac{1}{p(x)}\)看做事件\(x\)发生后带来的信息量。当\(p=1\)时,意味着我们知道此事必然发生,那么这一事件的发生并没有带来什么信息量。反之,一个小概率事件发生了,可以为我们带来很大的的信息量,这一系统就更出乎我们的意料,更混乱,具有更大的熵。
在这种视角下,我们可以自然地引出交叉熵,这用于衡量两个概率分布的差异,举个例子,给定随机事件\(X\), 其客观真实分布为\(p(x)\),我们的主观预测分布为\(q(x)\),当我们带着自己的主观预测,去不断地比较\(X\)的客观发生,我们收获的信息量应当是
什么时候交叉熵会很大?当我们主观上认为一个事情发生的概率很低(\(q(x)\)很大),但是客观上发生概率很高(\(p(x)\)很大)的时候,也就是主观认知和客观现实非常不匹配的时候。因此机器学习使用交叉熵做函数,就是为了最小化模型的主观预测与数据的客观分布之间的差异。
交叉熵可以衡量我们基于某种主观认识去感受客观世界时,收获的信息量。但是只要事件仍然随机而非确定,客观信息本身也会有自己的熵,KL散度(相对熵)就是从收获的全部信息(混乱程度)减去客观信息本身的熵,得到的剩余信息量。定义为
不过,在模型优化中直接采用交叉熵作为损失函数就好了,因为客观分布并不随机器学习模型的参数变化,后一项在优化过程中为常数,求导为0,优化交叉熵等价于优化KL散度。
softmax
多分类神经网络中,有一个现实的矛盾。对于预测\(n\)个类的任务,我们通过神经网络输出了n个节点的实数值,然而这些值并不能直接表示每个类的概率分布。这为我们使用交叉熵做损失函数提供了不小的麻烦。为了解决这个问题,我们引入了softmax函数,它可以将任意实数向量转换为一个概率分布。
softmax函数的定义为
其中\(z_i\)是神经网络输出的第\(i\)个节点的实数值,\(n\)是输出节点的数量。softmax函数的输出满足概率分布的性质,即所有输出值之和为1,并且每个输出值都在0到1之间。
初次看到这一形式,必然感到很困惑,凭什么是指数函数?凭什么是e?凭什么是softmax?实际上,使用softmax拟合概率有一定的道理。
- 从物理学的角度来说,softmax与多种能级的气体玻尔兹曼分布形式一模一样。
- 从熵的角度来说,若认定输出的\(z_i\)就是能量,在能量期望守恒的条件下,softmax就是:不做任何假设,仅从最大熵原理得出的概率分布形式
- 从数值计算的角度来说,softmax函数可以有效地将实数值映射到概率分布,避免了数值计算中的溢出问题。同时,若使用softmax与交叉熵结合,导数形式比较简单:
它的梯度正好是目标分布与预测分布之差,只要两者不相等,那么梯度就一直存在,优化就可以持续下去,这是交叉熵的优点。当然,某些情况下这也是缺点,因为Softmax只有在误差几乎为0的时候才会得到one hot,换言之正常情况下都不会出现one hot,即优化一直不会完全停止,那么就有可能导致过度优化,这也是一些替代品的动机。
Appendix
Proof.1:softmax形式上的深刻意义
机器学习对应
设神经网络输出为 \(\mathbf{o} = (o_1, o_2, \dots, o_q)\),我们需要将其转换为概率分布 \(\mathbf{p} = (p_1, p_2, \dots, p_q)\)。从三条基本假设开始推导
- 概率归一化:\(\sum_{i=1}^q p_i = 1\)
- 特征期望约束:\(\mathbb{E}_p[o_i] = \sum_{i=1}^q p_i o_i = \mu_o\) 其中 \(\mu_o\) 是模型输出的期望值。这一点相当于物理里面的能量守恒。
- 最大熵原理
优化目标
最大化熵:
引入拉格朗日函数
对 \(p_k\) 求偏导:
令 \(C = e^{-1-\lambda}\),则:
在深度学习中:
- 取 \(\beta = -1\)(相当于负温度参数)
- 定义 \(o_k\) 为模型输出值
得到:
统计力学对应
在正则系综中,状态 \(k\) 的概率为:
其中:
- \(E_k\) = 状态 \(k\) 的能量
- \(T\) = 系统温度
- \(k\) = 玻尔兹曼常数
- \(Z = \sum e^{-E_i/kT}\) = 配分函数
令:
- \(o_k = -E_k\)(模型输出表示负能量)
- \(kT = 1\)(单位温度)
则:
玻尔兹曼能级分布描述了在热平衡状态下,粒子在不同能级上的分布情况,通常用玻尔兹曼因子表示。一个物理学系统天然满足最大熵原理。
Proof.2
最大熵原理往往结合一定的先验假设或者约束条件来推导出概率分布。 常用的假设为
当\(f(x)=x\),式子变为物理中的能量守恒。
在k个这样的假设下,原问题的拉格朗日函数可以写为
根据导数等于零解得
带入约束条件
可以求得拉格朗日系数,但实际上很难求得,需要付出昂贵的数值计算代价。
参考文献
熵的推导与最大熵模型
- https://spaces.ac.cn/archives/3534
- https://spaces.ac.cn/archives/3552
- https://spaces.ac.cn/archives/3567
- https://www.zhihu.com/search?type=content&q=softmax的本质
application
- https://spaces.ac.cn/archives/3638
- 从理论上证明,排序算法的时间复杂度不可能更优于\(O(nlogn)\)
为什么是交叉熵?,谈KL散度与交叉熵
玻尔兹曼分布,玻色分布和爱因斯坦分布

浙公网安备 33010602011771号