摘要:
信息熵 在之前的博文里,推到了KL散度、熵和极大似然的关系,理解了这个其实信息熵也很好理解。 对于随机变量$X$ 有: \[ P(X=x_i) = p_i \] 因此$X$ 这个随机分布的熵就是: \[ H(X) = -\sum_{i=1}^n p_i \log p_i \] 但我们谈变量的熵的时候 阅读全文
posted @ 2021-11-27 12:25
kalice
阅读(110)
评论(0)
推荐(0)
摘要:
哎,没办法,人蠢啊。只能去看视频了。 阅读全文
posted @ 2021-11-27 10:10
kalice
阅读(28)
评论(0)
推荐(0)

浙公网安备 33010602011771号