关于Focal Loss【转自以学习、回忆】

是解决样本不均衡问题的一种方法,面试常问,但是自己一知半解 遂寻文学习

来源:CSDN GHZhao_GIS_RS

链接:https://blog.csdn.net/u014311125/article/details/109470137

转载一篇以学习、回忆。

转载正文开始 有删减

个人觉的要真正理解Focal Loss,有三个关键点需要清楚,分别对应基础公式,超参数α,超参数γ。
一、二分类(sigmoid)和多分类(softmax)的交叉熵损失表达形式是有区别的。
二、理解什么是难分类样本,什么是易分类样本?搞清难易分类样本是搞清楚Focal Loss中的超参数γ作用的关键。
三、负样本的α值到底该是0.25还是0.75呢?这个问题对应Focal Loss中的超参数α的调参。
理解上面三点应该就能搞清楚二分类Focal Loss的基本思想,然后就可以推广到多分类问题上。

理解关键点一:基础公式

二分类和多分类的交叉熵的区别具体可以参考文章《一文搞懂交叉熵损失》(https://www.cnblogs.com/wangguchangqing/p/12068084.html#autoid-0-2-0)

1.1、二分类交叉熵
在做二分类的任务时,一般是用sigmoid作为最后的激活函数,输出只有一个代表样本为正的概率值p,二分类非正即负,所以样本为负的概率值为1-p。
则以sigmoid作为激活函数的二分类任务交叉熵损失的计算公式为:

关于Focal Loss【转自以学习、回忆】

1.2、多分类交叉熵

在做多分类的时候,一般是以softmax作为最后的激活函数的,输出有多个值,对应每个分类的概率值,和为1。
则以sofmax作为激活函数的多分类任务的交叉熵损失计算公式为

关于Focal Loss【转自以学习、回忆】

其中p c p_{c}p
c

表示softmax激活函数输出结果中第c类的对应的值。
注意:论文中是基于以sigmoid为激活函数来作为二分类交叉熵损失的。我在最开始学Focal Loss的时候老是将sigmoid和softmax混着看,一会用sigmoid来套公式,一会用softmax来套公式,很容易把自己搞蒙。
文章的备注里也指出可以很容易将Focal Loss应用于多分类,为了简单起见,文章中关注的是二分类情况

关于Focal Loss【转自以学习、回忆】

理解关键点二:

关于Focal Loss【转自以学习、回忆】

论文将交叉熵损失公式做了进一步的简化:

关于Focal Loss【转自以学习、回忆】

其中

关于Focal Loss【转自以学习、回忆】

所以:

关于Focal Loss【转自以学习、回忆】

这里pt的理解比较关键。pt的大小实际能反映出样本难易分类的程度。举个例子,当样本为正样本(y=1)时,如果模型预测的p=0.3,表示模型预测该样本为负样本,模型预测错误,

pt=0.3,如果模型预测的p=0.8,表示模型预测该样本为正样本,模型预测正确,
pt=0.8。当样本为负样本(y=0)时,如果模型预测的p=0.3,表示模型判断该样本为负样本,判断正确,=1-p=0.7。如果模型输出的p=0.8,表示模型判断该样本为正样本,模型预测错误,pt=1-p=0.2.对应下表

可以看到,不管是正样本还是负样本,模型预测时pt都很大,预测错误时pt很小,所以pt代表了模型对样本预测正确的概率。

接下来看论文中一上来就给的一张图。

关于Focal Loss【转自以学习、回忆】

横坐标是pt,可以看出作者指出pt∈(0.6,1)区间为易分类样本。针对上边的例子再啰嗦几句,对于一个正样本,如果模型得到的预测的p总是在0.5以上,则说明该样本很容易被分类正确,所以是易分类样本,此时pt=p,pt也总是在0.5以上,如果模型得到的预测的p总是在0.5以下,则说明该样本很难被正确分类,所以为难分类样本,此时pt也总是在0.5以下;同理对于一个负样本,模型预测的p很容易在0.5以下,表明模型很容易将样本正确分类,所以是易分类样本,pt=1-p,pt总是在0.5以上,如果模型得到的预测的p总是在0.5以上,则说明针对这类样本模型总是分类错误,所以是难分类样本,pt=1-p,pt总是在0.5以下。

总结一下:易分类样本的特征pt>0.5 难分类样本特征:pt

Original: https://www.cnblogs.com/nlpers/p/16286108.html
Author: nlp如此迷人
Title: 关于Focal Loss【转自以学习、回忆】

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/568122/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球