一句话总结多分类交叉熵损失

,其中x为logit,y为label,n为batch_size,为logit(i,yi)的值,当logit经过softmax化处理后,cls为softmax loss。

posted @ 2022-04-12 20:58  gloomy1999  阅读(85)  评论(1)    收藏  举报