OHEM – non_local – smooth L1 loss – Libra R-CNN

OHEM – non_local – smooth L1 loss – Libra R-CNN

目标检测不平衡综述里看到的
本文还是主要讲libra rcnn 和一些拓展知识
C
我这一看我每天实习的内容不就是hard neagtive mining吗 ,还是人工的那种☹️☹️☹️
OHEM
正常的hard negative minine 确实存在训练慢的问题,比如我自己每次训练完模型都得重新弄一套测试+重新训练的pipeline 很麻烦。
OHEM的思路也不太难理解

  • faster rcnn的训练策略出了什么问题?
  • faster rcnn : 正样本标记规则,如果Anchor对应的reference box与ground truth的IoU>0.7。负样本标定规则:如果Anchor对应的reference box与ground truth的IoU

—————————————————————————————————相对来说 libra简洁一点
libra
解释一下这张图

OHEM - non_local - smooth L1 loss - Libra R-CNN
就是把需要找出N个hard neagtive的指标分配到 K个iou区域上去,那每个区域就分摊到了 N/K个,而且每个区域共有Mk这个多个ROI,所以Pk代表着每个区域内能找到hard neagtive的概率。
—————————————————————————————————
Non-local Neural Networks
non_local
这里面只需要看一下那几种attention的表现形式即可
—————————————————————————————————
smooth_l1_loss
smooth
总的来说就是,在梯度大的时候,控制梯度别过大,否则就一直波动。在梯度小的时候改小就小。
设计 Balanced L1 Loss的目的是促进关键梯度的回归,文中举例子是说要促进那些inner的回归,而这是可以使用α 和 γ 控制的。

Original: https://blog.csdn.net/Blue_Whale2020/article/details/122529247
Author: Blue_Whale2020
Title: OHEM – non_local – smooth L1 loss – Libra R-CNN

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/686421/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球