GHMLoss

主要是在focal loss的基础上对location和classification都做了平衡处理。

GHC思想:

  1. 首先先计算出X预测输出的梯度:

   

  于是我们可以定义一个梯度模长,g=|p-p*|

  2. 由于梯度均衡本质上是对不同样本产生的梯度进行一个加权,进而改变它们的贡献量,而这个权重加在损失函数上也可以达到同样的效果,此研究中,梯度均衡机制便是通过重构损失函数来实现的。清楚地描述新的损失函数,我们需要先定义梯度密度(gradient density)这一概念,将样本产生的梯度对应的进行标准化到一个bins的空间里面(自定义bins=10), 根据bins这个空间里面每一个范围内梯度所有的数量来算梯度的密度,根据样本中梯度在这个空间中出现的次数来降低相对应的权重,从而增加hard example对Loss的影响,从而达到梯度密度大的样本的权重会被降低,密度小的样本的权重会增加.

 

在Classfication和Location Regression中就是将上面的思想运用到里面去,在计算Loss之前根据密度的大小加上一个权重.

在这里将Location的Smooth L1loss改成了ASL1 Loss.

可以参考:https://blog.csdn.net/u013841196/article/details/88650784和原始论文:https://arxiv.org/pdf/1811.05181.pdf


posted @ 2020-07-28 17:00  瞬_冷  阅读(1354)  评论(0)    收藏  举报