PyTorch实现手写数字识别的示例代码

目录
  • 加载手写数字的数据
  • 数据加载器(分批加载)
  • 建立模型
  • 模型训练
  • 测试集抽取数据,查看预测结果
  • 计算模型精度
  • 自己手写数字进行预测

加载手写数字的数据

组成训练集和测试集,这里已经下载好了,所以download为False

import torchvision

# 是否支持gpu运算
# device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
# print(device)
# print(torch.cuda.is_available())

# 加载训练集的数据  使用torchvision自带的MNIST数据集
train_dataset = torchvision.datasets.MNIST(root='./data1',
                                           train=True,
                                           transform=torchvision.transforms.ToTensor(),
                                           download=False
                                           )

# 加载测试集的数据  创建测试集
test_dataset = torchvision.datasets.MNIST(root='./data1',
                                          train=False,
                                          transform=torchvision.transforms.ToTensor(),
                                          download=False
                                          )

数据加载器(分批加载)

# 加载数据的批次 一批有多少条数据
batch_size = 100
# 创建数据加载器shuffle为True 加载时打乱
train_loader = DataLoader(dataset=train_dataset,
                          batch_size=batch_size,
                          shuffle=True
                          )
test_loader = DataLoader(dataset=test_dataset,
                         batch_size=batch_size,
                         shuffle=True
                         )
# 数据加载器生成的对象转为迭代器
examples = iter(test_loader)
# 使用next方法获取到一批次的数据
example_data, example_targets = examples.next()
# 遍历获取到6条数据 展示观察一下
for i in range(6):
    plt.subplot(2, 3, i + 1)
    plt.imshow(example_data[i][0], cmap='gray')
    # 查看图片的大小 方便建立模型时输入的大小
    print(example_data[i][0].shape)

plt.show()

建立模型

建立模型之前定义输入大小和分类类别输出大小

通过上边查看图片的大小为28*28*1,所以输入大小为784

数字识别只有0~9所以为10个类别的多分类问题

input_size = 784
num_classes = 10

创建模型类

class NeuralNet(torch.nn.Module):
    def __init__(self, n_input_size, hidden_size, n_num_classes):
        """
        神经网络类初始化
        :param n_input_size: 输入
        :param hidden_size: 隐藏层
        :param n_num_classes: 输出
        """
        # 调用父类__init__方法
        super(NeuralNet, self).__init__()
        self.input_size = input_size
        # 第一层线性模型 传入输入层和隐藏层
        self.l1 = torch.nn.Linear(n_input_size, hidden_size)
        # relu激活函数层
        self.relu = torch.nn.ReLU()
        # 第二层线性模型 传入隐藏层和输出层
        self.l2 = torch.nn.Linear(hidden_size, n_num_classes)

    def forward(self, x):
        """
        重写正向传播函数  获取到预测值
        :param x: 数据
        :return: 预测值
        """
        # 线性模型
        out = self.l1(x)
        # 激活函数
        out = self.relu(out)
        # 线性模型2
        out = self.l2(out)
        # 返回预测值
        return out

# 获取到gpu设备
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
# 创建模型并把模型放到当前支持的gpu设备中
model = NeuralNet(input_size, 500, num_classes).to(device)
print(model)

  • 可以看出模型一共三层
  • 输入层(节点数量和图小大小相同)
  • 隐藏层(节点数为500)
  • 输出层(输出节点数量为10 0~9

定义损失函数和优化器

  • 因为是多分类问题,所以使用交叉熵函数的多分类损失函数
  • 因为传统的梯度下降存在一定缺陷,比如学习速率一直不变,所以使用PyTorch中梯度下降的优化算法Adam算法
# 定义学习率
learning_rate = 0.01
# 损失函数
criterion = torch.nn.CrossEntropyLoss()
# 定义优化器 参数1为模型的参数 lr为学习率
optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)

模型训练

训练步骤:

  • 通过模型类正向传播获取到预测结果
  • 通过损失函数传入预测结果和真实值计算损失
  • 通过反向传播获取梯度
  • 通过梯度下降更新模型参数的权重
  • 梯度清空,防止下次梯度累加
  • 循环,降低损失为我们想要的结果(提高模型精度)
# 定义训练的次数
num_epochs = 10
# 训练集数据的总长度
total_steps = len(train_loader)
# 遍历训练次数
for epoch in range(num_epochs):
    # 每次从数据加载器中取出一批数据  每批次100条
    for i, (images, labels) in enumerate(train_loader):
        # 把图片降维到一维数组  加载到gpu
        images = images.reshape(-1, 28 * 28).to(device)
        # 真实值加载到gpu
        labels = labels.to(device)
        # 正向传播 获取到预测值
        outputs = model(images)
        # 通过损失函数获取到损失值
        loss_val = criterion(outputs, labels)
        # 清空梯度
        optimizer.zero_grad()
        # 进行反向传播
        loss_val.backward()
        # 梯度下降更新参数
        optimizer.step()
        # 打印每次训练的损失值
        if i % 100 == 0:
            print(f'Loss:{loss_val.item():.4f}')

print('训练完成')
# 训练完之后保存模型
torch.save(model.state_dict(), './last.pt')

  • 损失值很明显的在收敛
  • 生成了pt模型文件

测试集抽取数据,查看预测结果

# 把测试集的数据加载器转为生成器
examples = iter(test_loader)
# next()方法获取一批数据
example_data, example_targets = examples.next()

# 拿出前三条
for i in range(3):
    # 画图展示
    plt.subplot(1, 3, i + 1)
    plt.imshow(example_data[i][0], cmap='gray')
plt.show()

images = example_data
# 图片将为加载到GPU
images = images.reshape(-1, 28 * 28).to(device)
# 正向传播获取预测结果
outputs = model(images)
# 打印结果 detach()方法结果不会计算梯度更新 转为numpy
print(f'真实结果:{example_targets[0:3].detach().numpy()}')
# 预测完的结果为10个数字的概率 使用argmax()根据行归一化并求自变量的概率最大值
print(f'预测结果:{np.argmax(outputs[0:3].cpu().detach().numpy(), axis=1)}')

计算模型精度

# 用测试集的数据,校验模型的准确率
with torch.no_grad():
    n_correct = 0
    n_samples = 0
    # 取出测试集数据
    for images, labels in test_loader:
        # 和训练代码一致
        images = images.reshape(-1, 28 * 28).to(device)
        labels = labels.to(device)
        outputs = model(images)

        # 返1 最大值 返2 索引                0每列最大值  1每行最大值
        _, predicted = torch.max(outputs.data, 1)
        n_samples += labels.size(0)
        n_correct += (predicted == labels).sum().item()
    # 计算模型精度
    acc = 100.0 * n_correct / n_samples
    print(f"准确率:{acc}%")

自己手写数字进行预测

import cv2
import numpy as np

import torch

from 手写数字神经网络结构 import NeuralNet

# 获取到gpu设备
device = torch.device('cuda')
# 加载保存好的模型
input_size = 784
num_classes = 10
model = NeuralNet(input_size, 500, num_classes)
# 因为保存模型时在GPU所以要指定map_location='cuda:0'
model.load_state_dict(torch.load('./last.pt', map_location='cuda:0'))
# 加载到gpu上
model.to(device)

# 局域内不计算梯度
with torch.no_grad():
    # cv2读取图片 灰度方式
    images = cv2.imread('./number_four.png', cv2.IMREAD_GRAYSCALE)
    # 使用大津算法进行二值化处理 并反转
    ret, thresh_img = cv2.threshold(images, 0, 255, cv2.THRESH_BINARY_INV | cv2.THRESH_OTSU)
    # 展示处理过后的图片
    cv2.imshow('png1', thresh_img)
    cv2.waitKey()
    # 图片降维 把拍的图片降维到和训练时的图片大小一样
    my_image = cv2.resize(thresh_img, (28, 28))
    # 转为numpy
    my_image = np.array(my_image, np.float32)
    # 转为torch的张量
    my_image = torch.from_numpy(my_image)
    # 降维
    my_image = my_image.reshape(-1, 28 * 28).to(device)
    # 正向传播获取预测值
    outputs = model(my_image)
    # 取出预测结果
    pred = np.argmax(outputs.cpu().detach().numpy(), axis=1)
    print(f'预测结果为:{pred[0]}')

到此这篇关于PyTorch实现手写数字识别的示例代码的文章就介绍到这了,更多相关PyTorch 手写数字识别内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!

(0)

相关推荐

  • pytorch 利用lstm做mnist手写数字识别分类的实例

    代码如下,U我认为对于新手来说最重要的是学会rnn读取数据的格式. # -*- coding: utf-8 -*- """ Created on Tue Oct 9 08:53:25 2018 @author: www """ import sys sys.path.append('..') import torch import datetime from torch.autograd import Variable from torch im

  • 超详细PyTorch实现手写数字识别器的示例代码

    前言 深度学习中有很多玩具数据,mnist就是其中一个,一个人能否入门深度学习往往就是以能否玩转mnist数据来判断的,在前面很多基础介绍后我们就可以来实现一个简单的手写数字识别的网络了 数据的处理 我们使用pytorch自带的包进行数据的预处理 import torch import torchvision import torchvision.transforms as transforms import numpy as np import matplotlib.pyplot as plt

  • PyTorch简单手写数字识别的实现过程

    目录 一.包导入及所需数据的下载 关于数据集引入的改动 二.进行数据处理变换操作 三.数据预览测试和数据装载 四.模型搭建和参数优化 关于模型搭建的改动 总代码: 测试 总结 具体流程: ① 导入相应的包,下载训练集和测试集对应需要的图像数据. ②进行图像数据的变换,使图像数据转化成pytorch可识别并计算的张量数据类型 ③数据预览测试和数据装载 ④模型搭建和参数优化 ⑤总代码 ⑥测试 一.包导入及所需数据的下载 torchvision包的主要功能是实现数据的处理.导入.预览等,所以如果需要对

  • PyTorch CNN实战之MNIST手写数字识别示例

    简介 卷积神经网络(Convolutional Neural Network, CNN)是深度学习技术中极具代表的网络结构之一,在图像处理领域取得了很大的成功,在国际标准的ImageNet数据集上,许多成功的模型都是基于CNN的. 卷积神经网络CNN的结构一般包含这几个层: 输入层:用于数据的输入 卷积层:使用卷积核进行特征提取和特征映射 激励层:由于卷积也是一种线性运算,因此需要增加非线性映射 池化层:进行下采样,对特征图稀疏处理,减少数据运算量. 全连接层:通常在CNN的尾部进行重新拟合,减

  • pytorch教程实现mnist手写数字识别代码示例

    目录 1.构建网络 2.编写训练代码 3.编写测试代码 4.指导程序train和test 5.完整代码 1.构建网络 nn.Moudle是pytorch官方指定的编写Net模块,在init函数中添加需要使用的层,在foeword中定义网络流向. 下面详细解释各层: conv1层:输入channel = 1 ,输出chanael = 10,滤波器5*5 maxpooling = 2*2 conv2层:输入channel = 10 ,输出chanael = 20,滤波器5*5, dropout ma

  • 详解PyTorch手写数字识别(MNIST数据集)

    MNIST 手写数字识别是一个比较简单的入门项目,相当于深度学习中的 Hello World,可以让我们快速了解构建神经网络的大致过程.虽然网上的案例比较多,但还是要自己实现一遍.代码采用 PyTorch 1.0 编写并运行. 导入相关库 import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim from torchvision import datasets, t

  • PyTorch实现手写数字识别的示例代码

    目录 加载手写数字的数据 数据加载器(分批加载) 建立模型 模型训练 测试集抽取数据,查看预测结果 计算模型精度 自己手写数字进行预测 加载手写数字的数据 组成训练集和测试集,这里已经下载好了,所以download为False import torchvision # 是否支持gpu运算 # device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') # print(device) # print(torch.cud

  • Java实现BP神经网络MNIST手写数字识别的示例详解

    目录 一.神经网络的构建 二.系统架构 服务器 客户端 采用MVC架构 一.神经网络的构建 (1):构建神经网络层次结构 由训练集数据可知,手写输入的数据维数为784维,而对应的输出结果为分别为0-9的10个数字,所以根据训练集的数据可知,在构建的神经网络的输入层的神经元的节点个数为784个,而对应的输出层的神经元个数为10个.隐层可选择单层或多层. (2):确定隐层中的神经元的个数 因为对于隐层的神经元个数的确定目前还没有什么比较完美的解决方案,所以对此经过自己查阅书籍和上网查阅资料,有以下的

  • 基于TensorFlow的CNN实现Mnist手写数字识别

    本文实例为大家分享了基于TensorFlow的CNN实现Mnist手写数字识别的具体代码,供大家参考,具体内容如下 一.CNN模型结构 输入层:Mnist数据集(28*28) 第一层卷积:感受视野5*5,步长为1,卷积核:32个 第一层池化:池化视野2*2,步长为2 第二层卷积:感受视野5*5,步长为1,卷积核:64个 第二层池化:池化视野2*2,步长为2 全连接层:设置1024个神经元 输出层:0~9十个数字类别 二.代码实现 import tensorflow as tf #Tensorfl

  • python神经网络编程实现手写数字识别

    本文实例为大家分享了python实现手写数字识别的具体代码,供大家参考,具体内容如下 import numpy import scipy.special #import matplotlib.pyplot class neuralNetwork: def __init__(self,inputnodes,hiddennodes,outputnodes,learningrate): self.inodes=inputnodes self.hnodes=hiddennodes self.onodes

  • PyTorch实现MNIST数据集手写数字识别详情

    目录 一.PyTorch是什么? 二.程序示例 1.引入必要库 2.下载数据集 3.加载数据集 4.搭建CNN模型并实例化 5.交叉熵损失函数损失函数及SGD算法优化器 6.训练函数 7.测试函数 8.运行 三.总结 前言: 本篇文章基于卷积神经网络CNN,使用PyTorch实现MNIST数据集手写数字识别. 一.PyTorch是什么? PyTorch 是一个 Torch7 团队开源的 Python 优先的深度学习框架,提供两个高级功能: 强大的 GPU 加速 Tensor 计算(类似 nump

随机推荐