课程链接PyTorch深度学习实践第九节课程。
go go go~!
原理介绍
- 在前面第六讲时,介绍过了可以将 逻辑回归看做是仅含有一层神经元的单层的神经网络。一般用于二分类网络,线性可分的情况时是一个线性模型,激活函数为Sigmoid。
- 在这里将引入更加令人激动的概念——多分类softmax分类器、交叉熵、通道等。
1、 在二分类时,为了映射到0-1时,在线性模型输出后加了激活函数。而softmax的输入不需要再做非线性变换,也就是说softmax之前的不再需要激活函数(这里用的relu ,可见Sigmoid和Relu激活函数的对比)。
softmax两个作用,如果在进行softmax前的input有负数,通过指数变换,得到正数;所有类的概率求和为1。
2、交叉熵损失就包含了下图中softmax计算和右边的标签输入计算(即框起来的部分)。所以在使用交叉熵损失的时候, 神经网络的最后一层是不要做激活的,因为把它做成分布的激活是包含在 交叉熵损失里面的(就是softmax)。所以 最后一层不要做非线性变换,直接交给交叉熵损失。(一会儿看代码对比第六节 逻辑回归 二分类就明白了)
3、CrossEntropyLoss
- 在PyTorch里面我们需要转化成CWH,把通道放在前面是为了在PyTorch里面进行更高效的图像处理,卷积运算。所以拿到图像之后,我们就把它先转化成pytorch里面的一个Tensor,即把0到255的值变成0到1的浮点数,然后把维度由28×28的矩阵变成1×28×28的 单通道图像张量。
- 这个过程可以用transforms的ToTensor这个函数实现
; 下面来看代码吧
import torch
from torchvision import transforms
from torchvision import datasets
from torch.utils.data import DataLoader
import torch.nn.functional as F
import torch.optim as optim
batch_size = 64
transform = transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))])
train_dataset = datasets.MNIST(root='../dataset/mnist/', train=True, download=True, transform=transform)
train_loader = DataLoader(train_dataset, shuffle=True, batch_size=batch_size)
test_dataset = datasets.MNIST(root='../dataset/mnist/', train=False, download=True, transform=transform)
test_loader = DataLoader(test_dataset, shuffle=False, batch_size=batch_size)
class Net(torch.nn.Module):
def __init__(self):
super(Net, self).__init__()
self.l1 = torch.nn.Linear(784, 512)
self.l2 = torch.nn.Linear(512, 256)
self.l3 = torch.nn.Linear(256, 128)
self.l4 = torch.nn.Linear(128, 64)
self.l5 = torch.nn.Linear(64, 10)
def forward(self, x):
x = x.view(-1, 784)
x = F.relu(self.l1(x))
x = F.relu(self.l2(x))
x = F.relu(self.l3(x))
x = F.relu(self.l4(x))
return self.l5(x)
model = Net()
criterion = torch.nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)
def train(epoch):
running_loss = 0.0
for batch_idx, data in enumerate(train_loader, 0):
inputs, target = data
optimizer.zero_grad()
outputs = model(inputs)
loss = criterion(outputs, target)
loss.backward()
optimizer.step()
running_loss += loss.item()
if batch_idx % 300 == 299:
print('[%d, %5d] loss: %.3f' % (epoch+1, batch_idx+1, running_loss/300))
running_loss = 0.0
def test():
correct = 0
total = 0
with torch.no_grad():
for data in test_loader:
images, labels = data
outputs = model(images)
_, predicted = torch.max(outputs.data, dim=1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
print('accuracy on test set: %d %% ' % (100*correct/total))
if __name__ == '__main__':
for epoch in range(10):
train(epoch)
test()
代码解释
1、第8讲 from torch.utils.data import Dataset,第9讲 from torchvision import datasets。该datasets里面init,getitem, len魔法函数已实现。(更多了解可以参考PyTorch 详细常用图像数据集加载及预处理(三种)。)
2、 torch.max的返回值有两个, 第一个是每一行的最大值是多少,第二个是每一行最大值的下标(索引)是多少。
_, predicted = torch.max(outputs.data, dim=1)
- debug观察变量, ” _ “第一个变量的样子。通过debug你会看到各个变量的形式。” _ “是一个tensor,有64个数。每张图像输出的结果是一个1×10的列表,是由神经网络算出的,只不过最后一层输出没有激活,所以不是成概率分布在0-1之间。
- 另外因为我们不需要这个变量,所以” _ “作为下划线通常表示变量无用,只是作为一个placeholder
- 第二个变量predicted则是每一行的最大值的下标(索引)。
3、torch.no_grad()用法,训练train时需要更新网络中各权值的梯度,但test测试时不再需要。Python中with的用法。
4、torch.max(inputs,dim)使用详解
5、看到predicted ” == “labels判两个tensor是否相等,又想了解一下pytorch如何判断两个Tensor是否相等。
如果是 标量,可以直接进行 ” == “判断。
如果是 向量或矩阵,则 torch.eq :
torch.eq(torch.tensor([[1., 2.], [3., 4.]]), torch.tensor([[1., 1.], [4., 4.]]))
>>>tensor([[True, False], [False, True]])
或者 torch.equal对于整个张量:
torch.equal(torch.tensor([[1., 2.], [3, 4.]]), torch.tensor([[1., 1.], [4., 4.]]))
>>> False
torch.equal(torch.tensor([[1., 2.], [3., 4.]]), torch.tensor([[1., 2.], [3., 4.]]))
>>> True
最后
关于为什么准确率到97%就上不去了。
因为用的全连接神经网络, 而忽略了对局部信息的利用,把所有元素之间都做了全连接,也就是说 图像里面某一个元素和其他元素都要产生联系,所以处理的时候权重不够高。处理图像的时候更关心高抽象级别的特征,我们用的是比较原始的特征, 所以如果我们用某些特征提取,再去做分类训练,可能效果会更好一点,既然是图像,我们考虑自动提取特征。
图像特征提取:FFT(傅里叶变换)整张图片特征提取,转变成频域来表示,傅里叶变换的缺陷:都是正弦波,因为正弦波是周期性的,在叠加的时候,如果不是周期性特别好的输出,拟合还是会有些问题,所以更倾向于用小波变换做特征提取
自动特征提取:CNN 参考链接
by 小李
如果你坚持到这里了,请一定不要停,山顶的景色更迷人!好戏还在后面呢。加油!
欢迎交流学习和批评指正,你的点赞和留言将会是我更新的动力!谢谢😃Original: https://blog.csdn.net/weixin_41469023/article/details/123019411
Author: 咯吱咯吱咕嘟咕嘟
Title: 【PyTorch深度学习实践】学习笔记 第九节 实践篇 手写数字图像多分类
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/664305/
转载文章受原作者版权保护。转载请注明原作者出处!