摘要:
转自:http://www.cnblogs.com/hxsyl/p/4910218.html 一、第一种理解 相对熵(relative entropy)又称为KL散度(Kullback–Leibler divergence,简称KLD),信息散度(information divergence),信息 阅读全文
posted @ 2019-01-23 23:00
Python少年
阅读(5076)
评论(0)
推荐(0)

浙公网安备 33010602011771号