用 PyTorch 搭建前馈神经网络,完成对手写数字数据集 MNIST 的分类。 参考流程: 1. 构造 MNIST 数据集的 DataSet 对象。 (1) 下载作业附件 mnist_train.csv 和 mnist_test.csv,自行编程实现 DataSet 类。 2. 根据已构造的 DataSet 实现 DataLoader。 3. 用 PyTorch 框架搭建前馈神经网络。 4. 训练模型并测试模型效果作业要求: 1. 可参考网络开源代码。 2. 将代码及结果整理成 PDF(姓名-学号),请在 2023.5.31 前上传至班级作业, 需包含: (1) MNIST 中数据的可视化,即手写数字图片 (2) 训练网络过程中的 loss 变化图、测试集的准确率变化图。
时间: 2024-02-12 22:07:57 浏览: 78
好的,我理解了你的问题。下面是我为你提供的答案:
首先,需要安装 PyTorch 库。
接下来,我们可以按照以下步骤进行操作:
1. 构造 MNIST 数据集的 DataSet 对象。
可以使用 pandas 库来读取 CSV 文件。然后将数据转换成 tensor 类型,这可以使用 PyTorch 的 from_numpy() 方法。
2. 根据已构造的 DataSet 实现 DataLoader。
可以使用 PyTorch 中的 DataLoader 类来生成迭代器,使得我们可以对数据进行批次处理。
3. 用 PyTorch 框架搭建前馈神经网络。
我们可以使用 PyTorch 中的 nn.Module 类来构建神经网络。可以选择使用全连接层(nn.Linear)或卷积层(nn.Conv2d)。
4. 训练模型并测试模型效果。
训练模型可以使用 PyTorch 中的优化器(例如 SGD 或 Adam),并使用交叉熵损失函数。可以记录每个 epoch 的损失和准确率,并在测试集上进行模型评估。
以下是一个示例代码,仅供参考:
```python
import pandas as pd
import torch
import torch.nn as nn
import torch.optim as optim
from torch.utils.data import Dataset, DataLoader
import matplotlib.pyplot as plt
# 1. 构造 MNIST 数据集的 DataSet 对象
class MNISTDataset(Dataset):
def __init__(self, csv_file):
self.data = pd.read_csv(csv_file, header=None).values.astype('float32')
self.labels = self.data[:, 0]
self.images = self.data[:, 1:].reshape(-1, 28, 28) / 255.0
def __len__(self):
return len(self.data)
def __getitem__(self, idx):
image = torch.from_numpy(self.images[idx])
label = int(self.labels[idx])
return image, label
# 2. 根据已构造的 DataSet 实现 DataLoader
train_dataset = MNISTDataset('mnist_train.csv')
test_dataset = MNISTDataset('mnist_test.csv')
train_loader = DataLoader(train_dataset, batch_size=64, shuffle=True)
test_loader = DataLoader(test_dataset, batch_size=64, shuffle=False)
# 3. 用 PyTorch 框架搭建前馈神经网络
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc1 = nn.Linear(28 * 28, 128)
self.fc2 = nn.Linear(128, 10)
def forward(self, x):
x = x.view(-1, 28 * 28)
x = nn.functional.relu(self.fc1(x))
x = self.fc2(x)
return x
model = Net()
# 4. 训练模型并测试模型效果
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(model.parameters(), lr=0.01)
train_loss_history = []
train_acc_history = []
test_loss_history = []
test_acc_history = []
for epoch in range(10):
train_loss = 0.0
train_total = 0
train_correct = 0
for i, (inputs, labels) in enumerate(train_loader, 0):
optimizer.zero_grad()
outputs = model(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
train_loss += loss.item()
_, predicted = torch.max(outputs.data, 1)
train_total += labels.size(0)
train_correct += (predicted == labels).sum().item()
train_loss_history.append(train_loss / len(train_loader))
train_acc_history.append(train_correct / train_total)
test_loss = 0.0
test_total = 0
test_correct = 0
with torch.no_grad():
for inputs, labels in test_loader:
outputs = model(inputs)
loss = criterion(outputs, labels)
test_loss += loss.item()
_, predicted = torch.max(outputs.data, 1)
test_total += labels.size(0)
test_correct += (predicted == labels).sum().item()
test_loss_history.append(test_loss / len(test_loader))
test_acc_history.append(test_correct / test_total)
print('Epoch %d, Train Loss: %.3f, Train Acc: %.3f, Test Loss: %.3f, Test Acc: %.3f' %
(epoch + 1, train_loss_history[-1], train_acc_history[-1], test_loss_history[-1], test_acc_history[-1]))
# 画图
plt.plot(train_loss_history, label='Train Loss')
plt.plot(test_loss_history, label='Test Loss')
plt.legend()
plt.show()
plt.plot(train_acc_history, label='Train Acc')
plt.plot(test_acc_history, label='Test Acc')
plt.legend()
plt.show()
```
希望这个示例代码可以帮助你完成任务。
阅读全文