摘要: 转载 阅读全文
posted @ 2022-06-30 15:46 yeahHiHi 阅读(220) 评论(0) 推荐(0)
摘要: label Smothing相较交叉熵函数引入了一个factor机制,一般取0.1,它的好处就是: 使用了Label Smoothing损失函数后,在训练阶段预测正确时 loss 不会下降得太快,预测错误的時候 loss 不会惩罚得太多,使其不容易陷入局部最优点,这在一定程度可以抑制网络过拟合的现象 阅读全文
posted @ 2022-06-30 11:49 yeahHiHi 阅读(178) 评论(0) 推荐(0)