GHMLoss
主要是在focal loss的基础上对location和classification都做了平衡处理。
GHC思想:
1. 首先先计算出X预测输出的梯度:

于是我们可以定义一个梯度模长,g=|p-p*|
2. 由于梯度均衡本质上是对不同样本产生的梯度进行一个加权,进而改变它们的贡献量,而这个权重加在损失函数上也可以达到同样的效果,此研究中,梯度均衡机制便是通过重构损失函数来实现的。清楚地描述新的损失函数,我们需要先定义梯度密度(gradient density)这一概念,将样本产生的梯度对应的进行标准化到一个bins的空间里面(自定义bins=10), 根据bins这个空间里面每一个范围内梯度所有的数量来算梯度的密度,根据样本中梯度在这个空间中出现的次数来降低相对应的权重,从而增加hard example对Loss的影响,从而达到梯度密度大的样本的权重会被降低,密度小的样本的权重会增加.
在Classfication和Location Regression中就是将上面的思想运用到里面去,在计算Loss之前根据密度的大小加上一个权重.
在这里将Location的Smooth L1loss改成了ASL1 Loss.
可以参考:https://blog.csdn.net/u013841196/article/details/88650784和原始论文:https://arxiv.org/pdf/1811.05181.pdf

浙公网安备 33010602011771号