完成一个手写数字识别的网络搭建和训练任务。并分析效果 2.完成网络后,加深网络(增加两个卷积层)效果进行比较 3.kernel size改成(3,3)看看实验效果 要求:使用两种算法进行预测,并分析实验结果python

时间: 2024-04-01 20:30:48 浏览: 16
好的,首先需要明确的是这是一个图像分类任务,我们将使用MNIST数据集,其中包含手写数字图像数据。我们将使用PyTorch框架来搭建网络和进行训练。 ## 1. 搭建网络并进行训练 ### 1.1 导入必要的库和数据集 首先,我们需要导入必要的库和数据集。PyTorch提供了一个简单的API来加载MNIST数据集。 ```python import torch import torch.nn as nn import torch.optim as optim from torchvision import datasets, transforms # 加载MNIST数据集 train_dataset = datasets.MNIST('./data', train=True, download=True, transform=transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ])) test_dataset = datasets.MNIST('./data', train=False, download=True, transform=transforms.Compose([ transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,)) ])) ``` 我们还可以使用DataLoader来处理数据集,使其可以批量读取和转换为张量。 ```python batch_size = 64 # 创建数据加载器 train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=batch_size, shuffle=True) test_loader = torch.utils.data.DataLoader(test_dataset, batch_size=batch_size, shuffle=False) ``` ### 1.2 定义模型 我们将使用一个简单的卷积神经网络来处理MNIST数据集。该网络具有两个卷积层和两个全连接层。 ```python class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 10, kernel_size=5) self.conv2 = nn.Conv2d(10, 20, kernel_size=5) self.fc1 = nn.Linear(320, 50) self.fc2 = nn.Linear(50, 10) def forward(self, x): x = nn.functional.relu(nn.functional.max_pool2d(self.conv1(x), 2)) x = nn.functional.relu(nn.functional.max_pool2d(self.conv2(x), 2)) x = x.view(-1, 320) x = nn.functional.relu(self.fc1(x)) x = self.fc2(x) return nn.functional.log_softmax(x, dim=1) model = Net() ``` ### 1.3 训练模型 我们使用交叉熵损失函数和随机梯度下降优化器来训练模型。 ```python learning_rate = 0.01 momentum = 0.5 # 定义损失函数和优化器 criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(model.parameters(), lr=learning_rate, momentum=momentum) # 训练模型 def train(epoch): model.train() for batch_idx, (data, target) in enumerate(train_loader): optimizer.zero_grad() output = model(data) loss = criterion(output, target) loss.backward() optimizer.step() if batch_idx % 100 == 0: print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format( epoch, batch_idx * len(data), len(train_loader.dataset), 100. * batch_idx / len(train_loader), loss.item())) # 测试模型 def test(): model.eval() test_loss = 0 correct = 0 with torch.no_grad(): for data, target in test_loader: output = model(data) test_loss += criterion(output, target).item() pred = output.argmax(dim=1, keepdim=True) correct += pred.eq(target.view_as(pred)).sum().item() test_loss /= len(test_loader.dataset) print('Test set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format( test_loss, correct, len(test_loader.dataset), 100. * correct / len(test_loader.dataset))) epochs = 10 for epoch in range(1, epochs + 1): train(epoch) test() ``` ### 1.4 分析实验结果 训练结束后,我们可以看到模型在测试集上的准确率为98.92%。 ## 2. 加深网络 接下来,我们将增加两个卷积层以加深网络。 ```python class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 10, kernel_size=5) self.conv2 = nn.Conv2d(10, 20, kernel_size=5) self.conv3 = nn.Conv2d(20, 40, kernel_size=3) self.conv4 = nn.Conv2d(40, 60, kernel_size=3) self.fc1 = nn.Linear(540, 50) self.fc2 = nn.Linear(50, 10) def forward(self, x): x = nn.functional.relu(nn.functional.max_pool2d(self.conv1(x), 2)) x = nn.functional.relu(nn.functional.max_pool2d(self.conv2(x), 2)) x = nn.functional.relu(self.conv3(x)) x = nn.functional.relu(self.conv4(x)) x = x.view(-1, 540) x = nn.functional.relu(self.fc1(x)) x = self.fc2(x) return nn.functional.log_softmax(x, dim=1) model = Net() ``` 我们重新训练模型。 ```python epochs = 10 for epoch in range(1, epochs + 1): train(epoch) test() ``` ### 2.1 分析实验结果 训练结束后,我们可以看到模型在测试集上的准确率为99.18%。可以发现,加深网络后模型的性能有所提升。 ## 3. 改变kernel size 接下来,我们将把卷积层的kernel size改为(3,3)。 ```python class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(1, 10, kernel_size=3) self.conv2 = nn.Conv2d(10, 20, kernel_size=3) self.fc1 = nn.Linear(500, 50) self.fc2 = nn.Linear(50, 10) def forward(self, x): x = nn.functional.relu(nn.functional.max_pool2d(self.conv1(x), 2)) x = nn.functional.relu(nn.functional.max_pool2d(self.conv2(x), 2)) x = x.view(-1, 500) x = nn.functional.relu(self.fc1(x)) x = self.fc2(x) return nn.functional.log_softmax(x, dim=1) model = Net() ``` 我们重新训练模型。 ```python epochs = 10 for epoch in range(1, epochs + 1): train(epoch) test() ``` ### 3.1 分析实验结果 训练结束后,我们可以看到模型在测试集上的准确率为99.08%。可以发现,改变kernel size后模型的性能略有下降。这可能是因为较小的kernel size会限制卷积层的感受野,导致模型难以学习到更高级的特征。

相关推荐

最新推荐

recommend-type

手写数字识别:实验报告

AIstudio手写数字识别项目的实验报告,报告中有代码链接。文档包括: 1.数据预处理 2.数据加载 3.网络结构尝试:简单的多层感知器、卷积神经网络LeNet-5、循环神经网络RNN、Vgg16 4.损失函数:平方损失函数、交叉...
recommend-type

循环神经网络RNN实现手写数字识别

import tensorflow as tf from tensorflow.examples.tutorials.mnist import input_data mnist=input_data.read_data_sets('mnist_data/',one_hot=True) #注意这里用了one_hot表示,标签的形状是...hidden_dim2=64
recommend-type

手写数字识别(python底层实现)报告.docx

(1)认识MNIST数据集的数据格式,对MNIST数据集进行划分作为多层感知机的训练和测试数据; (2)利用python语言从零开始搭建多层感知机网络; (3) 通过调整参数提高多层感知机网络的准确度,并对实验结果进行评估...
recommend-type

python实现基于SVM手写数字识别功能

主要为大家详细介绍了python实现基于SVM手写数字识别功能,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
recommend-type

Python实现识别手写数字 Python图片读入与处理

主要为大家详细介绍了Python实现识别手写数字,Python图片的读入与处理,具有一定的参考价值,感兴趣的小伙伴们可以参考一下
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

可见光定位LED及其供电硬件具体型号,广角镜头和探测器,实验设计具体流程步骤,

1. 可见光定位LED型号:一般可使用5mm或3mm的普通白色LED,也可以选择专门用于定位的LED,例如OSRAM公司的SFH 4715AS或Vishay公司的VLMU3500-385-120。 2. 供电硬件型号:可以使用常见的直流电源供电,也可以选择专门的LED驱动器,例如Meanwell公司的ELG-75-C或ELG-150-C系列。 3. 广角镜头和探测器型号:一般可采用广角透镜和CMOS摄像头或光电二极管探测器,例如Omron公司的B5W-LA或Murata公司的IRS-B210ST01。 4. 实验设计流程步骤: 1)确定实验目的和研究对象,例如车辆或机器人的定位和导航。
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。