【Pytorch-从一团乱麻到入门】:6、Pytorch 选择最终模型的方式:save best model & early stop

在模型训练时一般会进行多轮,那么到底哪一轮训练出来的模型是最优的呢?如果在脚本中挑选出最合适的模型呢?

针对上述问题,一般会有如下几种解决方法;

1、最占用存储但是却是最稳妥的方法:每一轮的模型都保存,模型保存方式为:

torch.save(model, "model.pkl")

2、早停机制,即在训练时保存效果在一定范围内不再提升时的模型。

早停机制是一种正则化的手段,用于避免训练数据集上的过拟合。早期停止会跟踪验证损失(val_loss),如果损失连续几个 epoch 停止下降,训练就会停止。

pytorch提供了实现早停机制的相遇脚本:pytorchtool.py ,下载路径为:

其中的 EarlyStopping 类用于创建一个对象,以便在训练 PyTorch 模型时跟踪验证损失。每次验证丢失减少时,它都会保存模型的一个检查点,在EarlyStopping类中设置了patience参数,即在最后一次验证损失改善后,我们希望在中断训练循环之前等待多少个epochs,在等待了patience个epoch后,如果模型效果不下降,那么这次模型则被保存为best-model.

具体使用方式为:

下载earlystop 脚本,然后将脚本放在模型训练脚本同一路径下,具体使用方式为:

import EarlyStopping

from pytorchtools import EarlyStopping

在模型训练中:

early_stopping = EarlyStopping(patience=20, verbose=True) ###20次都不下降则为best model

early_stopping(val_loss, model)

if early_stopping.early_stop:
            print("The Early stopping epoch is this:",epoch)
            #stop_epoch=epoch
            break
#####保留last  checkpoint with the best model
model.load_state_dict(torch.load('checkpoint.pt'))

程序会自动搜索loss不再下降的点,持续训练patience次后不再下降即停止并保存模型。

此部分参考如下:

3、保存损失函数不再下降的模型/保存测试集准确性最高的模型/保存测试集AUC最高的模型

此方法实现起来较为简单,根据实际情况在模型训练时记录每次产生的loss/acc/AUC值,每次进行一次判断,例如:若loss变低,则保留此次模型,若loss值变高,则保持上次保存的模型。

备注:此方法容易选出极端模型结果,使用时需要小心。

具体使用方法为:

best_acc=0.0

#####复制模型的参数
best_model_wts=copy.deepcopy(model.state_dict())

###拷贝模型最高精度下的参数
if val_acc_all[-1]>best_acc:
    best_acc=val_acc_all[-1]
    best_model_wts=copy.deepcopy(model.state_dict())
    time_use=time.time()-since
    print("Train and val complete in {:.0f}m {:.0f}s".format(time_use//60,time_use%60))
###使用最好模型的参数
model.load_state_dict(best_model_wts)

Original: https://blog.csdn.net/qq_40815731/article/details/123099603
Author: 李毛线的博客
Title: 【Pytorch-从一团乱麻到入门】:6、Pytorch 选择最终模型的方式:save best model & early stop

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/709927/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球