摘要: 交叉熵(cross entropy):用于度量两个概率分布间的差异信息。交叉熵越小,代表这两个分布越接近。 函数表示(这是使用softmax作为激活函数的损失函数表示): (是真实值,是预测值。) 命名说明: pred=F.softmax(logits),logits是softmax函数的输入,pr 阅读全文
posted @ 2021-08-10 14:52 奋斗的小仔 阅读(1210) 评论(0) 推荐(0)