Loss上升,精度却也上升?

1、情况说明

在训练中遇到了下图验证集损失先降后升,这是典型的过拟合,但是此时验证集精度却仍然在上升(直觉认为Loss上升变差应当精度下降变差),这种反直觉的现象引发了思考

Loss上升,精度却也上升?

; 2、分析

首先说的比较详细的是这篇博客深度学习相关问题的记录:验证集loss上升,准确率却上升,其实原理也很简单,比如你的BatchSize=5,其中有1个错了,那么你的精度为80%,但是如果错了的这个输出非常离谱计算出来的Loss很大(比如[0.000001,0.2,0.33339,0.2,0.2]和[1,0,0,0,0]这个输出虽然错误了,但是根据0.00001和1计算出的Loss却会很大)(也就是数据集中存在hard case导致突变),那么5个Loss的均值Loss也就很大。反之如果有2个错了,但是输出和正确的差一丢丢,计算出来的Loss可能比较小,平均Loss也就比较小。所以可以看出Loss和精度并非强相关联系。而且如果你设计的Loss不同,那么更有可能出现或者避免这种现象。

综上,Loss只是指导模型优化的指标,而不是模型性能的指标,所以要看模型效果,到底怎么样:看精度不看Loss

3、解决办法(只是收集,未验证)

  • Droupout太猛了:训练时加了dropout后train loss正常下降,解决了过拟合,但是验证时没有dropout层,Loss就慢慢上升了,也就是在训练和验证时区别太大。

对于Val Loss先降后升,其实就是针对过拟合的解决办法:

  • 增加训练样本
  • 增加正则项系数权重,减小过拟合
  • 加入早停机制,ValLoss上升几个epoch直接停止
  • 采用Focal Loss
  • 加入Label Smoothing

4、引用

Original: https://blog.csdn.net/qq_40243750/article/details/126845821
Author: 我是一个对称矩阵
Title: Loss上升,精度却也上升?

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/718778/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球