随笔分类 - 损失函数
摘要:在看RAM++模型的时候,看到了用的损失函数是asymmetric loss,称为非对称损失。以二分类问题为例,正类别和负类别的损失权重可以不相等。这样设计的目的是使模型更关注于对某一类别的正确分类,尤其是当某一类别的错误分类可能带来更严重后果时。 这个损失常常与focal loss一起做对比,"不
阅读全文
摘要:********************2023年07月06日17:13:20********************** 参考我的notability中的笔记学习更快 ***********************************分割线***************************
阅读全文
摘要:2023年12月11日15:25:59 focal loss可降低大量简单样本的在训练过程中所占权重,这句话的意思是,训练样本中一些相似的训练数据会在训练过程中被舍弃,因为之前的相似样本已经参与训练了。但是,这也不是意味着可以直接不经挑选的扩充训练样本,举个例子,有个分类模型区分人和狗,在人的类别中
阅读全文
摘要:本文方法,在LVIS challenge 2019比赛中获得第一名,整体ap比第二名高2.2个点,rare类别比第二名高7.1个点。在没有额外策略,仅使用本文方法的前提下,在rare类别上比baseline方法高4.1个点(加上各种策略后,再提升3.8个点)。 一、长尾问题的一般解决方案 在实际的视
阅读全文
摘要:本文主要是针对人脸识别中的各种loss进行总结。 背景 对于分类问题,我们常用的loss function是softmax,表示为: ,当然有softmax肯定也有hardmax: ,softmax和hardmax相比,优势是更容易收敛,更容易达到one-hot。softmax鼓励特征分开,但是并不
阅读全文

浙公网安备 33010602011771号