随笔分类 -  损失函数

摘要:在看RAM++模型的时候,看到了用的损失函数是asymmetric loss,称为非对称损失。以二分类问题为例,正类别和负类别的损失权重可以不相等。这样设计的目的是使模型更关注于对某一类别的正确分类,尤其是当某一类别的错误分类可能带来更严重后果时。 这个损失常常与focal loss一起做对比,"不 阅读全文
posted @ 2024-01-15 15:30 海_纳百川 阅读(524) 评论(0) 推荐(0)
摘要:********************2023年07月06日17:13:20********************** 参考我的notability中的笔记学习更快 ***********************************分割线*************************** 阅读全文
posted @ 2023-07-06 17:14 海_纳百川 阅读(182) 评论(0) 推荐(0)
摘要:2023年12月11日15:25:59 focal loss可降低大量简单样本的在训练过程中所占权重,这句话的意思是,训练样本中一些相似的训练数据会在训练过程中被舍弃,因为之前的相似样本已经参与训练了。但是,这也不是意味着可以直接不经挑选的扩充训练样本,举个例子,有个分类模型区分人和狗,在人的类别中 阅读全文
posted @ 2022-09-20 09:16 海_纳百川 阅读(564) 评论(0) 推荐(0)
摘要:本文方法,在LVIS challenge 2019比赛中获得第一名,整体ap比第二名高2.2个点,rare类别比第二名高7.1个点。在没有额外策略,仅使用本文方法的前提下,在rare类别上比baseline方法高4.1个点(加上各种策略后,再提升3.8个点)。 一、长尾问题的一般解决方案 在实际的视 阅读全文
posted @ 2022-08-02 09:12 海_纳百川 阅读(692) 评论(0) 推荐(0)
摘要:本文主要是针对人脸识别中的各种loss进行总结。 背景 对于分类问题,我们常用的loss function是softmax,表示为: ,当然有softmax肯定也有hardmax: ,softmax和hardmax相比,优势是更容易收敛,更容易达到one-hot。softmax鼓励特征分开,但是并不 阅读全文
posted @ 2022-06-12 12:41 海_纳百川 阅读(1009) 评论(0) 推荐(0)
摘要: 阅读全文
posted @ 2022-06-12 12:28 海_纳百川 阅读(117) 评论(0) 推荐(0)

本站总访问量