摘要:
熵(entropy)、KL散度(Kullback-Leibler (KL) divergence)和交叉熵(cross-entropy)在机器学习的很多地方会用到。比如在决策树模型使用信息增益来选择一个最佳的划分,使得熵下降最大;深度学习模型最后一层使用 softmax 激活函数后,我们也常使用交叉熵来计算两个分布的“距离”。KL散度和交叉熵很像,都可以衡量两个分布之间的差异,相互之间可以转化。本文将对熵、KL散度和交叉熵进行简单的介绍。 阅读全文
posted @ 2018-09-27 22:27
wuliytTaotao
阅读(12337)
评论(0)
推荐(3)

浙公网安备 33010602011771号