python 使用Softmax回归处理IrIs数据集

本文章包含以下内容:

数据: lris数据集;

模型: Softmax回归模型;

损失函数:交叉嫡损失;

优化器:梯度下降法;

评价指标:准确率。

1.实验数据集

Iris(1).csv无法上传,这里就不提供下载了,它长这样

python 使用Softmax回归处理IrIs数据集

lris数据集,也称为鸢尾花数据集,包含了3种鸢尾花类别(Setosa · Versicolour – Virginica),每种类别有50个样本,共计150个样本。其中每个样本中包含了4个属性:花尊长度﹑花芎宽度﹑花瓣长度以及花瓣宽度,本实验通过鸢尾花这4个属性来判断该样本的类别。

2.读取数据集

实验中将数据集划分为三个部分:训练集:用于确定模型参数;

验证集:与训练集独立的样本集合,用于使用提前停止策略选择最优模型;

测试集:用于估计应用效果。

在本实验中,将80%的数据用于模型训练, 10%的数据用于模型验证,10%的数据用于模型测试。

3.模型构建

使用Softmax回归模型进行鸢尾花分类实验,将模型的输入维度定义为4,输出维度定义为3。

4.模型训练

使用训练集和验证集进行模型训练,共训练80个epoch,其中每隔10个epoch打印训练集上的指标,并且保存准确率最高的模型作为最佳模型。

5.模型评价

使用测试数据对在训练过程中保存的最佳模型进行评价,观察模型在测试集上的准确率情况。

6.模型预测

使用保存好的模型,对测试集中的数据进行模型预测,并取出1条数据观察模型效果。

代码如下:

import numpy as np
import pandas as pd
import torch
from torch import nn

读取数据
def read_data(file):
    # 读取csv文件,并存入data,带标签 dataframe
    data = pd.read_csv(file)
    data = data.sample(frac=1).reset_index(drop=True)  # 打乱数据集
    y = list(data['Species'])  # 标签
    len_data = len(y)  # 数据个数
    # labels 删除的列标签,axis=1 删除列,inplace=True 改变原数据
    data.drop(labels=['Id', 'Species'], axis=1, inplace=True)  # 删除Id,Species列
    # Species 转独热向量
    for i in range(len(y)):
        if y[i] == 'Iris-setosa':
            y[i] = [1, 0, 0]
        elif y[i] == 'Iris-versicolor':
            y[i] = [0, 1, 0]
        elif y[i] == 'Iris-virginica':
            y[i] = [0, 0, 1]
    y = torch.Tensor(y)  # 转张量
    data = torch.Tensor(data.values)  # 转张量
    # train 训练
    # verification 验证
    # test 测试
    return [[data[0:int(len_data * 0.8)], y[0:int(len_data * 0.8)]],
            [data[int(len_data * 0.8):int(len_data * 0.9)], y[int(len_data * 0.8):int(len_data * 0.9)]],
            [data[int(len_data * 0.9):len_data], y[int(len_data * 0.9):len_data]]]

初始化参数 通过从均值为0﹑标准差为0.01的正态分布中采样随机数来初始化权重
并将偏置初始化为0。
def chushi():
    # 返回从正态分布中提取的随机数的张量,该正态分布的均值是mean,标准差是std。
    # requires_grad=True 表示需要计算梯度,注意size=(4,3)列向量
    w = torch.normal(mean=0.1, std=0.01, size=(4, 3), requires_grad=True)
    return w

测试函数,比较准确率
def ceshi(w, f, l):
    c = 0
    # 模型计算出所有的结果
    l1 = softmax(f, w)
    for i in range(len(l)):
        # 如果最大值对应的l值是1,说明验证正确。
        s = -1
        t = float('-inf')
        for j in range(len(l[0])):
            if l1[i][j] > t:
                t = l1[i][j]
                s = j
        if l[i][s]:
            c = c + 1
    return c / len(l)

该函数接收批量大小﹑特征矩阵和标签向量作为输入,生成大小为batch_size的小批量,每个小批量包含一组特征和标签。
def data_iter(batch_size, features, labels):  # 批量 特征 标签
    for i in range(len(labels) - batch_size):
        test_index = np.random.choice(len(features), batch_size, replace=False)
        yield features[test_index], labels[test_index]

def softexp(A):
    A = A.exp()
    A_sum = A.sum(axis=1, keepdims=True)
    A = A / A_sum
    return A

模型  输入特征为x﹑权重为w
def softmax(X, w):
    S = torch.matmul(X, w)
    return softexp(S)

交叉熵损失函数,返回损失值,其中y_hat为预测值, y为真实值。
def cross_entropy_loss(y_hat, y):
    lo = 0
    for i in range(len(y)):
        lo -= (torch.log(y_hat) * y).sum()
    return lo / len(y)

从数据集中随机抽取小批量样本,根据参数计算损失的梯度;然后朝着减少损失的方向更新参数。
实现小批量随机梯度下降更新,该函数接受模型参数集合﹑学习速率和批量大小作为输入。
def sgd(params, lr, batch_size, X, y, y_hat):
    # dw = (1.0 / batch_size) * torch.matmul((y - y_hat).T,X)
    # params.data = params + lr * dw.T
    params.data -= lr * params.grad / batch_size
    params.grad.zero_()

def xunlian(batch_size, features, labels, f_verify, l_verify, w):
    lr = 0.03  # 学习率
    num_epochs = 81  # 循环次数
    net = softmax  # 模型
    loss = cross_entropy_loss  # 损失函数
    stop = 0  # 上一回的验证集准确率早停用
    for epoch in range(num_epochs):
        for X, y in data_iter(batch_size, features, labels):
            y_hat = net(X, w)  # 计算y_hat
            l = loss(y_hat, y)  # X和y 的小批量损失
            # 因为l形状是(batch_size,1),而不是一个标量。l中的所有元素被加到一起,
            # 并以此计算关于[w,b]的梯度
            l.sum().backward()
            sgd(w, lr, batch_size, X, y, y_hat)  # 使用参数的梯度更新参数
        if epoch % 10 == 0:  # 每循环10次执行
            with torch.no_grad():  # 输出当前误差,循环次数
                train_l = loss(net(features, w), labels)
                print(f'epoch {epoch}, loss {float(train_l.mean()):f}')
                c = ceshi(w[:], features, labels, )  # 看一看在训练集上的准确率
                print('训练集准确率:', c * 100, "%")
                c = ceshi(w[:], f_verify, l_verify)  # 看一看在验证集上的准确率
                if stop > c:  # 准确率下降,早停
                    print('验证集准确率:', c * 100, "%-》早停")
                    break
                else:
                    print('验证集准确率:', c * 100, "%")
                    stop = c
                    W = w  # 拿验证集准确率最高的
    return W, stop

file = 'Iris(1).csv'  # 数据文件
[[X_train, y_train],
 [X_verification, y_verification],
 [X_test, y_test, ]] = read_data(file)  # 读取数据集
w = chushi()  # 初始化 w
batch_size = 1  # 批量大小为 8
训练函数
[w, c] = xunlian(batch_size, X_train, y_train, X_verification, y_verification, w)
print('训练完成====================================')
c = ceshi(w[:], X_test, y_test)  # 测试集准确率
print('测试集准确率:', c * 100, "%")
print('所得w如下:\n', w)
print('例子:\n X值:', X_test[0:1])
print('实际y', y_test[0:1])
print('预测y', softmax(X_test[0:1], w))
print(w)

结果示例:

epoch 0, loss 68.055267
训练集准确率: 63.33333333333333 %
验证集准确率: 66.66666666666666 %
epoch 10, loss 27.553486
训练集准确率: 90.83333333333333 %
验证集准确率: 100.0 %
epoch 20, loss 18.791990
训练集准确率: 95.83333333333334 %
验证集准确率: 100.0 %
epoch 30, loss 17.222626
训练集准确率: 95.0 %
验证集准确率: 100.0 %
epoch 40, loss 18.608782
训练集准确率: 92.5 %
验证集准确率: 100.0 %
epoch 50, loss 14.631225
训练集准确率: 95.83333333333334 %
验证集准确率: 100.0 %
epoch 60, loss 15.789186
训练集准确率: 95.0 %
验证集准确率: 100.0 %
epoch 70, loss 16.089447
训练集准确率: 95.0 %
验证集准确率: 100.0 %
epoch 80, loss 12.320921
训练集准确率: 96.66666666666667 %
验证集准确率: 100.0 %
训练完成====================================
测试集准确率: 100.0 %
所得w如下:
 tensor([[ 1.6637,  1.3427, -2.6891],
        [ 3.2052,  0.6697, -3.5951],
        [-4.0419, -0.4740,  4.8318],
        [-1.8177, -2.4302,  4.5498]], requires_grad=True)
例子:
 X值: tensor([[5.4000, 3.4000, 1.5000, 0.4000]])
实际y tensor([[1., 0., 0.]])
&#x9884;&#x6D4B;y tensor([[9.9477e-01, 5.2329e-03, 4.3153e-14]], grad_fn=<divbackward0>)

&#x8FDB;&#x7A0B;&#x5DF2;&#x7ED3;&#x675F;&#xFF0C;&#x9000;&#x51FA;&#x4EE3;&#x7801;&#x4E3A; 0
</divbackward0>
epoch 0, loss 108.753929
&#x8BAD;&#x7EC3;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 70.0 %
&#x9A8C;&#x8BC1;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 40.0 %
epoch 10, loss 34.283939
&#x8BAD;&#x7EC3;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 85.83333333333333 %
&#x9A8C;&#x8BC1;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 73.33333333333333 %
epoch 20, loss 28.772650
&#x8BAD;&#x7EC3;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 88.33333333333333 %
&#x9A8C;&#x8BC1;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 80.0 %
epoch 30, loss 15.300897
&#x8BAD;&#x7EC3;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 96.66666666666667 %
&#x9A8C;&#x8BC1;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 93.33333333333333 %
epoch 40, loss 17.209322
&#x8BAD;&#x7EC3;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 95.0 %
&#x9A8C;&#x8BC1;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 93.33333333333333 %
epoch 50, loss 13.655725
&#x8BAD;&#x7EC3;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 95.83333333333334 %
&#x9A8C;&#x8BC1;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 86.66666666666667 %-&#x300B;&#x65E9;&#x505C;
&#x8BAD;&#x7EC3;&#x5B8C;&#x6210;====================================
&#x6D4B;&#x8BD5;&#x96C6;&#x51C6;&#x786E;&#x7387;&#xFF1A; 100.0 %
&#x6240;&#x5F97;w&#x5982;&#x4E0B;&#xFF1A;
 tensor([[ 1.4083,  1.2524, -2.3524],
        [ 2.7663,  0.2030, -2.6643],
        [-3.4667, -0.2554,  4.0330],
        [-1.5833, -1.7317,  3.6147]], requires_grad=True)
&#x4F8B;&#x5B50;&#xFF1A;
 X&#x503C;: tensor([[5.2000, 4.1000, 1.5000, 0.1000]])
&#x5B9E;&#x9645;y tensor([[1., 0., 0.]])
&#x9884;&#x6D4B;y tensor([[9.9853e-01, 1.4738e-03, 8.8739e-14]], grad_fn=<divbackward0>)

&#x8FDB;&#x7A0B;&#x5DF2;&#x7ED3;&#x675F;&#xFF0C;&#x9000;&#x51FA;&#x4EE3;&#x7801;&#x4E3A; 0
</divbackward0>

你们可以改一下批量大小,建议改为2的幂次,最好不要大于64,能加快训练速度(虽然本来也不慢)。

Original: https://blog.csdn.net/weixin_58196051/article/details/127424050
Author: i道i
Title: python 使用Softmax回归处理IrIs数据集

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/631270/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球