06 2023 档案

摘要:信息熵=$-\sum p_i\log p_i$ 交叉熵(p,q)=$-\sum p_i\log q_i$ KL散度=交叉熵-信息熵,大于等于0。 阅读全文
posted @ 2023-06-16 22:00 Utoрia 阅读(68) 评论(0) 推荐(0)