paddlepaddle模型的保存和加载

导读

深度学习中模型的计算图可以被分为两种, 静态图动态图,这两种模型的计算图各有优劣。

静态图需要我们先定义好网络的结构,然后再进行计算,所以静态图的计算速度快,但是debug比较的困难,因为只有当给计算图输入数据之后模型的参数才会有值。

动态图则是边运行边构建,动态图的优点在于可以在搭建网络的时候看见变量的值便于检查,缺点就是前向计算不方便优化,因为不知道下一步计算是做什么。

针对于这两种不同的计算图, paddlepladdle提供了多种不同的方式来保存和加载

模型保存和加载

paddlepaddle模型的保存和加载
paddlepaddle模型的保存和加载
  • paddle.save:模型参数和超参的保存,支持 动态图和静态图
  • paddle.load:模型参数和超参的加载,支持 动态图和静态图
  • paddle.jit.save: 动态图模型参数和结构的保存
  • paddle.jit.load: 动态图模型参数和结构的加载
  • paddle.static.save_inference_model: 静态图模型参数和结构的保存
  • paddle.static.load_inference_model: 静态图模型参数和结构的加载

除此之外,paddlepaddle还提供了 动态图转静态图来训练和保存模型,用来加快模型的训练效率。

; 模型参数的保存和加载

  • 模型训练

定义一个线程的二元一次方程,通过随机生成一些输入数据来计算输出,来训练模型

import paddle
import numpy as np
from paddle import optimizer,nn

np.random.seed(28)

num_samples = 1000

epoch = 10
batch_size = 512
class_num = 1
input_size = 2
learing_rate = 0.01

class LinearData(paddle.io.Dataset):
    def __init__(self,num_samples,input_size):
        super(LinearData, self).__init__()
        self._num_samples = num_samples

        w = np.random.rand(input_size)
        b = np.random.rand()

        self._x = np.random.rand(num_samples,2).astype("float32")
        self._y = np.sum(w * self._x,axis=1) + b
        self._y = self._y.reshape(-1,class_num).astype("float32")

    def __getitem__(self, idx):
        return self._x[idx],self._y[idx]

    def __len__(self):
        return self._num_samples

class SimpleNet(nn.Layer):
    def __init__(self,input_size,num_classes=class_num):
        super(SimpleNet, self).__init__()
        self._linear = nn.Linear(input_size,class_num)

    def forward(self, x):
        output = self._linear(x)
        return output

def train(data_loader,model,loss_fn,opt):

    for epoch_idx in range(epoch):
        for batch_idx,batch_data in enumerate(data_loader):
            batch_x, batch_y = batch_data
            pred_batch_y = model(batch_x)

            batch_loss = loss_fn(pred_batch_y,batch_y)

            batch_loss.backward()
            opt.step()
            opt.clear_grad()

            print("epoch:{},batch idx:{},loss:{:.4f}".format(epoch_idx,batch_idx
                  ,np.mean(batch_loss.numpy())))

dataset = LinearData(num_samples,input_size)
data_loader = paddle.io.DataLoader(dataset,shuffle=True,batch_size=batch_size)

model = SimpleNet(input_size,class_num)

loss_fn = paddle.nn.loss.MSELoss()

opt = paddle.optimizer.sgd.SGD(learning_rate=learing_rate,
                               parameters=model.parameters())

train(data_loader,model,loss_fn,opt)
  • 动态图的参数保存

通过 paddle.save函数来保存模型的参数和优化器的参数


paddle.save(model.state_dict(),"model.pdparams")

paddle.save(opt.state_dict(),"opt.pdparams")
  • 参数的加载

通过 paddle.load来从磁盘中加载模型和优化器的参数


model.set_state_dict(paddle.load("model.pdparams"))

opt.set_state_dict(paddle.load("opt.pdparams"))

静态图模型参数和结构的保存

  • 构建一个静态图模型
    构建了一个简单的静态图模型,只包含了输入和输出
import paddle

paddle.enable_static()

input = paddle.static.data(name="input",shape=[None,10],dtype="float32")

output = paddle.static.nn.fc(input,2)

place = paddle.CPUPlace()

exe = paddle.static.Executor(place)

exe.run(paddle.static.default_startup_program())
  • 保存静态图的模型和参数
prog = paddle.static.default_startup_program()

paddle.save(prog.state_dict(),"static.pdparams")

paddle.save(prog,"static.pdmodel")
  • 静态图模型的加载和初始化

prog = paddle.load("static.pdmodel")

params = paddle.load("static.pdparams")

prog.set_state_dict(params)

动态图转静态图的模型保存和加载

为了便于构建模型和调试,我们通常会选择动态图的方式来构建模型,如果想要加快模型的训练效率以及方便在训练完成之后保存模型的结构,这时候我们可以将动态图转换成为静态图来解决这两个问题。
针对这种情况paddlepaddle提供了两种方式来实现:

  1. 先将动态图转换成为静态图模型进行训练,然后再保存
  2. 采用动态图进行训练,训练完成之后再保存模型

  3. 动态图转静态图进行训练
    这种方法的优点就是通过将动态图转换为静态图进行训练,可以提升模型的训练效率,缺点就是 不方便调试
    paddle提供了一种比较简单的方法,只需要通过 paddle.jit.to_static来装饰 forward方法即可,非常简单


class SimpleNet(nn.Layer):
    def __init__(self,input_size,num_classes=class_num):
        super(SimpleNet, self).__init__()
        self._linear = nn.Linear(input_size,num_classes)

    @paddle.jit.to_static
    def forward(self, x):
        output = self._linear(x)
        return output

然后保存模型的时候使用 paddle.jit.save方法即可

paddle.jit.save(model,"model")

保存成功之后会生成三个文件 model.pdiparamsmodel.pdiparams.infomodel.pdmodel,如果使用 paddle.jit.to_static装饰了多个 forward方法,则会生成多个模型文件。

如果想要让保存的模型能够支持动态输入,只需要指定 InputSepc参数即可

from paddle.static import InputSpec

class SimpleNet(nn.Layer):
    def __init__(self,input_size,num_classes=class_num):
        super(SimpleNet, self).__init__()
        self._linear = nn.Linear(input_size,num_classes)

    @paddle.jit.to_static(input_spec=[InputSpec(shape=[None, input_size], dtype='float32')])
    def forward(self, x):
        output = self._linear(x)
        return output

模型的加载和预测


model = paddle.jit.load("model")

print(model.state_dict())

input_array = np.array([[1,2],[3,4],[5,6]],dtype=np.float32)
inputs = paddle.to_tensor(input_array,place=paddle.CUDAPlace(0),stop_gradient=False,dtype=paddle.float32)
print(inputs)

predit = model(inputs)
print(predit)
  • 动态图训练保存模型
    相比于动态图转静态图进行训练而言,我们不需要给模型添加装饰方法,只需要使用 paddle.jit.save来保存模型即可,在保存模型的时候只需要指定一下模型输入的shape即可
paddle.jit.save(model,"model",input_spec=[InputSpec(shape=[None,input_size],dtype="float32")])

注意:在使用 Layer构建模型的时候,不要把loss的计算写到forward方法中

Original: https://blog.csdn.net/sinat_29957455/article/details/127080526
Author: 修炼之路
Title: paddlepaddle模型的保存和加载

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/794727/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球