返回顶部

请叫我杨先生

导航

2021年12月24日 #

Pytorch 3.4.2 softmax回归 交叉熵损失函数

摘要: 交叉熵损失函数 关于信息熵我们已经在上一篇文章中有详细的讲解了"Click here to visit", 对于二分类的问题,信息熵计算公式为: \(H(X) = -\Sigma_{i = 1}^{n} p(x_i)\log p(x_i) = -(p(x)\log p(x) +(1-p(x))\lo 阅读全文

posted @ 2021-12-24 23:04 YangShusen' 阅读(474) 评论(0) 推荐(0)

Pytorch 3.4.1 softmax回归 信息熵

摘要: 信息熵 信息论之父C.E.Shannon 香农,在 1948 年发表的论文“通信的数学理论( A Mathematical Theory of Communication )”中指出,任何信息都存在冗余,冗余大小与信息中每个符号(数字、字母或单词)的出现概率或者说不确定性有关。 What's Com 阅读全文

posted @ 2021-12-24 17:30 YangShusen' 阅读(673) 评论(0) 推荐(0)