摘要:
转载自:https://www.zhihu.com/question/41252833/answer/141598211 仅从机器学习的角度讨论这个问题。 相对熵(relative entropy)就是KL散度(Kullback–Leibler divergence),用于衡量两个概率分布之间的差异 阅读全文
posted @ 2018-01-10 11:00
hejunlin
阅读(1173)
评论(0)
推荐(0)
浙公网安备 33010602011771号