如何搭建一个简单的神经网络
时间: 2023-08-10 09:02:51 浏览: 34
搭建一个简单的神经网络可以使用 PyTorch 来实现。以下是一段搭建一个两层全连接神经网络的代码示例:
```python
import torch
import torch.nn as nn
# 定义神经网络
class Net(nn.Module):
def __init__(self, input_size, hidden_size, num_classes):
super(Net, self).__init__()
self.fc1 = nn.Linear(input_size, hidden_size)
self.relu = nn.ReLU()
self.fc2 = nn.Linear(hidden_size, num_classes)
def forward(self, x):
out = self.fc1(x)
out = self.relu(out)
out = self.fc2(out)
return out
# 定义输入和输出大小
input_size = 784 # 28x28
hidden_size = 500
num_classes = 10
# 创建神经网络
net = Net(input_size, hidden_size, num_classes)
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(net.parameters(), lr=0.001, momentum=0.9)
# 训练神经网络
for epoch in range(10):
for i, (images, labels) in enumerate(trainloader):
# 将输入数据转换为神经网络所需的格式
images = images.reshape(-1, 28*28)
# 前向传播
outputs = net(images)
loss = criterion(outputs, labels)
# 反向传播和优化
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 输出训练信息
if (i+1) % 100 == 0:
print('Epoch [{}/{}], Step [{}/{}], Loss: {:.4f}'
.format(epoch+1, 10, i+1, len(trainloader), loss.item()))
```
这个神经网络有两个全连接层,并使用 ReLU 激活函数。我们使用交叉熵作为损失函数,使用随机梯度下降(SGD)优化器进行优化。在训练过程中,我们首先将输入数据转换为神经网络所需的格式,然后进行前向传播、计算损失、反向传播和优化。最后输出训练信息。