摘要: 本文从信息论和最大似然估计得角度推导交叉熵作为分类损失函数的依据。 从熵来看交叉熵损失 信息量 信息量来衡量一个事件的不确定性,一个事件发生的概率越大,不确定性越小,则其携带的信息量就越小。 设$X$是一个离散型随机变量,其取值为集合$X = {x_0,x_1,\dots,x_n}$ ,则其概率分布 阅读全文
posted @ 2019-12-19 15:29 Brook_icv 阅读(48483) 评论(6) 推荐(43) 编辑