pytorch搭建一个tensor形式的全连接层网络
时间: 2024-01-21 13:03:24 浏览: 78
以下是使用 PyTorch 搭建一个简单的全连接神经网络的示例代码:
```python
import torch
import torch.nn as nn
# 定义一个全连接神经网络模型
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc1 = nn.Linear(784, 128) # 输入层到隐藏层的全连接层
self.fc2 = nn.Linear(128, 10) # 隐藏层到输出层的全连接层
def forward(self, x):
x = x.view(-1, 784) # 将输入数据展平成一维向量
x = nn.functional.relu(self.fc1(x)) # 经过隐藏层并使用ReLU激活函数
x = self.fc2(x) # 输出层
return x
# 创建一个模型实例
net = Net()
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(net.parameters(), lr=0.01, momentum=0.9)
# 训练模型
for epoch in range(10):
running_loss = 0.0
for i, data in enumerate(trainloader, 0):
inputs, labels = data
optimizer.zero_grad() # 梯度清零
outputs = net(inputs) # 正向传播
loss = criterion(outputs, labels) # 计算损失函数
loss.backward() # 反向传播
optimizer.step() # 更新权重
running_loss += loss.item()
if i % 100 == 99:
print('[%d, %5d] loss: %.3f' % (epoch + 1, i + 1, running_loss / 100))
running_loss = 0.0
print('Finished Training')
```
该代码定义了一个名为 `Net` 的全连接神经网络模型,该模型包含一个输入层到隐藏层的全连接层和一个隐藏层到输出层的全连接层。在 `forward` 方法中,输入数据首先被展平成一维向量,然后经过隐藏层并使用ReLU激活函数,最后输出到输出层。
在训练模型时,我们使用交叉熵损失函数和随机梯度下降优化器进行优化。在训练过程中,我们迭代多次,每次迭代中对于每个数据批次都进行正向传播、计算损失函数、反向传播和更新权重的操作。最终得到训练好的模型。
阅读全文