摘要:
转载 阅读全文
posted @ 2022-06-30 15:46
yeahHiHi
阅读(220)
评论(0)
推荐(0)
摘要:
label Smothing相较交叉熵函数引入了一个factor机制,一般取0.1,它的好处就是: 使用了Label Smoothing损失函数后,在训练阶段预测正确时 loss 不会下降得太快,预测错误的時候 loss 不会惩罚得太多,使其不容易陷入局部最优点,这在一定程度可以抑制网络过拟合的现象 阅读全文
posted @ 2022-06-30 11:49
yeahHiHi
阅读(178)
评论(0)
推荐(0)

浙公网安备 33010602011771号