pytorch中Dataset,TensorDataset和DataLoader用法

1 用法介绍

pytorch中常用类torch.utils.data.Dataset和torch.utils.data.TensorDataset对数据进行封装;常用类torch.utils.data.DataLoader对数据进行加载。具体的用法细节如下所示:

1.1 torch.utils.data.Dataset的用法

class Dataset(object):
    def  __getitem__(self, index):
        raise NotImplementError
    def __len__(self):
        raise NotImplementError
    def __add__(self, other):
        return ConcatDataset([self, other])

注:torch.utils.data.Dataset表示一个数据集的抽象类,所有的其它数据集都要以它为父类进行数据封装。Dataset的类函数__getitem__和__len__必须要被进行重写。

1.2 torch.utils.data.TensorDataset的用法

classtorch.utils.data.TensorDataset(data_tensor, target_tensor)

  • data_tensor : 需要被封装的数据样本
  • target_tensor : 需要被封装的数据标签
class TensorDataset(Dataset):

    def __init__(self, data_tensor, target_tensor):
        self.data_tensor = data_tensor
        self.target_tensor = target_tensor
    def __getitem__(self, index):
        return self.data_tensor[index], self.target_tensor[index]
    def __len__(self):
        return self.data_tensor.size(0)

注:torch.utils.data.TensorDataset继承父类torch.utils.data.Dataset,不需要对类TensorDataset的函数进行重写。

1.3 torch.utils.data.DataLoader的用法

class torch.utils.data.DataLoader(dataset, batch_size=1, shuffle=False, sampler=None, batch_sampler=None, num_workers=0, collate_fn=None, pin_memory=False, drop_last=False, timeout=0, worker_init_fn=None, multiprocessing_context=None)

  • dataset (Dataset): 封装后的数据集。
  • batch_size (python:int,optional)): 每一批加载的样本量,默认值为1。
  • shuffle (bool,optional): 设置为True时,每一个epoch重新打乱数据顺序。
  • sampler (Sampler,optional): 定义在数据集中进行采样的策略,如果被指定,则False必须为shuffle。
  • batch_sampler (Sampler,optional): 类似sampler,但是一次返回一批索引。互斥有batch_size,shuffle,sampler和drop_last。
  • num_workers (python:int,optional): 多少个子进程用于数据加载。0表示将在主进程中加载数据,默认值为0。
  • collate_fn(callable,optional): 合并样本列表以形成张量的小批量。在从地图样式数据集中使用批量加载时使用。
  • pin_memory (bool,optional): 如果为True,则数据加载器在将张量返回之前将其复制到CUDA固定的内存中。
  • drop_last (bool,optional): 设置为True,如果数据集大小不能被该批次大小整除则删除最后一个不完整的批次。如果False,数据集的大小不能被批量大小整除,那么最后一个批量将更小,默认值为False。
  • timeout (numeric,optional): 如果为正,则为从worker收集批次的超时值。应始终为非负数,默认值为0。
  • worker_init_fn (callable,optional): 如果不是None,则在种子工作之后和数据加载之前,将在每个工作程序子进程上调用此程序,并以工作程序ID作为输入,取值为[0, num_workers – 1]或None。

注:torch.utils.data.DataLoader结合了数据集和取样器,并且可以提供多个线程处理数据集。在训练模型时该类可以将数据进行切分,每次抛出一组数据,直至把所有的数据都抛出。

2 代码实例

实例1中数据封装利用的是TensorDataset,数据加载利用的是DataLoader具体代码如下所示:

import torch
import torch.utils.data as Data
BATCH_SIZE = 5
x = torch.linspace(1, 10, 10)
y = torch.linspace(10, 1, 10)

torch_dataset = Data.TensorDataset(x, y)
loader = Data.DataLoader(
    dataset=torch_dataset,
    batch_size=BATCH_SIZE,
    shuffle=True,
    num_workers=0,
)
print(loader)
def show_batch():
    for epoch in range(3):
        for step, (batch_x, batch_y) in enumerate(loader):

            print("steop:{}, batch_x:{}, batch_y:{}".format(step, batch_x, batch_y))

if __name__ == '__main__':
    show_batch()

运行结果为:

pytorch中Dataset,TensorDataset和DataLoader用法

实例2中利用Dataset抽象类自定义出了一个子类进行数据封装,数据加载利用的是DataLoader具体代码如下所示:

import numpy as np
import torch
import torch.utils.data as Data

def generate_dataset(sample_num, class_num, X_shape):
    Label_list = []
    Sample_list = []
    for i in range(sample_num):
        y = np.random.randint(0, class_num)
        Label_list.append(y)
        Sample_list.append(np.random.normal(y, 0.2, X_shape))
    return torch.tensor(Sample_list), torch.tensor(Label_list)

class Normal_Dataset(Data.Dataset):
    def __init__(self, Numpy_Dataset):
        super(Normal_Dataset, self).__init__()
        self.data_tensor = Numpy_Dataset[0]
        self.target_tensor = Numpy_Dataset[1]

    def __getitem__(self, index):
        return self.data_tensor[index], self.target_tensor[index]

    def __len__(self):
        return self.data_tensor.size(0)

if __name__ == '__main__':
    numpy_dataset = generate_dataset(10, 2, 5)
    Dataset = Normal_Dataset(numpy_dataset)
    DataLoader = Data.DataLoader(
                        dataset = Dataset,
                        batch_size = 2,
                        shuffle = True,
                        num_workers = 0,
                        )
    for epoch in range(2):
        for step, (batch_x, batch_y) in enumerate(DataLoader):
            print("step: {}, batch_x: {}, batch_y: {}".format(step, batch_x, batch_y))

运行结果为:

pytorch中Dataset,TensorDataset和DataLoader用法

Original: https://blog.csdn.net/qq_38406029/article/details/121282487
Author: 鬼道2022
Title: pytorch中Dataset,TensorDataset和DataLoader用法

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/673342/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球