怎样用pytorch写深度神经网络
时间: 2023-10-19 15:07:46 浏览: 81
以下是一个简单的例子,展示如何使用PyTorch编写深度神经网络:
```python
import torch
import torch.nn as nn
# 定义一个简单的神经网络类
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc1 = nn.Linear(784, 512) # 输入层到隐藏层
self.fc2 = nn.Linear(512, 256) # 隐藏层到隐藏层
self.fc3 = nn.Linear(256, 10) # 隐藏层到输出层
def forward(self, x):
x = x.view(-1, 784) # 将输入张量变形为一维向量
x = torch.relu(self.fc1(x)) # 第一个隐藏层,使用ReLU激活函数
x = torch.relu(self.fc2(x)) # 第二个隐藏层,使用ReLU激活函数
x = self.fc3(x) # 输出层
return x
# 实例化神经网络并定义损失函数和优化器
net = Net()
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(net.parameters(), lr=0.01)
# 加载数据集
train_set = ...
test_set = ...
# 训练神经网络
for epoch in range(10): # 迭代10次
running_loss = 0.0
for i, data in enumerate(train_set, 0):
inputs, labels = data
# 将输入和标签转换为PyTorch张量
inputs = torch.tensor(inputs)
labels = torch.tensor(labels)
# 将梯度清零,进行前向传播、反向传播和优化
optimizer.zero_grad()
outputs = net(inputs)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step()
# 计算损失值
running_loss += loss.item()
if i % 1000 == 999: # 每1000个小批次输出一次损失值
print('[%d, %5d] loss: %.3f' %
(epoch + 1, i + 1, running_loss / 1000))
running_loss = 0.0
# 在测试集上评估神经网络
correct = 0
total = 0
with torch.no_grad():
for data in test_set:
inputs, labels = data
inputs = torch.tensor(inputs)
labels = torch.tensor(labels)
outputs = net(inputs)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted == labels).sum().item()
print('Accuracy of the network on the 10000 test images: %d %%' % (
100 * correct / total))
```
这个例子演示了如何定义一个简单的神经网络,加载数据集,训练神经网络,并在测试集上评估其性能。在训练过程中,我们使用交叉熵损失函数和随机梯度下降优化器进行优化。在测试集上,我们计算神经网络的准确率。
阅读全文