pytorch中迭代训练的代码
时间: 2023-09-25 16:16:17 浏览: 115
语义分割成套训练代码 pytorch 可以换成自己数据集、网络进行训练
5星 · 资源好评率100%
以下是使用PyTorch进行迭代训练的示例代码:
```python
import torch
import torch.nn as nn
import torch.optim as optim
# 定义模型
class MyModel(nn.Module):
def __init__(self):
super(MyModel, self).__init__()
self.fc1 = nn.Linear(10, 5)
self.fc2 = nn.Linear(5, 1)
def forward(self, x):
x = self.fc1(x)
x = nn.functional.relu(x)
x = self.fc2(x)
x = nn.functional.sigmoid(x)
return x
# 准备数据
train_data = torch.randn(100, 10)
train_labels = torch.randint(0, 2, (100, 1)).float()
# 初始化模型、损失函数和优化器
model = MyModel()
criterion = nn.BCELoss()
optimizer = optim.Adam(model.parameters(), lr=0.01)
# 迭代训练
num_epochs = 100
for epoch in range(num_epochs):
# 前向传播
outputs = model(train_data)
loss = criterion(outputs, train_labels)
# 反向传播和优化
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 打印训练进度
if (epoch+1) % 10 == 0:
print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, num_epochs, loss.item()))
```
在这个示例中,我们首先定义了一个简单的模型 `MyModel`,它包含两个全连接层和一个激活函数。我们使用随机数据和标签来准备训练数据,然后定义损失函数为二元交叉熵损失,优化器为Adam。在每个epoch中,我们执行前向传播、计算损失、反向传播和优化。最后,我们使用 `print` 语句打印训练进度。
阅读全文