用pytorch写一个回归的深度学习模型
时间: 2024-05-16 19:13:34 浏览: 63
好的,以下是一个简单的以 PyTorch 实现的回归模型:
```python
import torch
import torch.nn as nn
class RegressionModel(nn.Module):
def __init__(self, input_dim, hidden_dim, output_dim):
super(RegressionModel, self).__init__()
self.fc1 = nn.Linear(input_dim, hidden_dim)
self.relu = nn.ReLU()
self.fc2 = nn.Linear(hidden_dim, output_dim)
def forward(self, x):
out = self.fc1(x)
out = self.relu(out)
out = self.fc2(out)
return out
```
上面的代码定义了一个简单的两层全连接神经网络用于回归任务。模型的输入维度为 `input_dim`,隐藏层维度为 `hidden_dim`,输出维度为 `output_dim`。模型的前向传播过程包含一个全连接层,激活函数 ReLU,和另一个全连接层。
现在我们可以用这个模型来训练数据。
```python
# 定义输入数据和标签
x_train = torch.tensor([[1.0], [2.0], [3.0], [4.0]])
y_train = torch.tensor([[2.0], [4.0], [6.0], [8.0]])
# 初始化模型
model = RegressionModel(1, 10, 1)
# 定义损失函数和优化器
criterion = nn.MSELoss()
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)
# 训练模型
for epoch in range(1000):
# 前向传播
outputs = model(x_train)
# 计算损失
loss = criterion(outputs, y_train)
# 反向传播
optimizer.zero_grad()
loss.backward()
optimizer.step()
# 打印损失
if (epoch+1) % 100 == 0:
print('Epoch [{}/{}], Loss: {:.4f}'.format(epoch+1, 1000, loss.item()))
```
上面的代码定义了一个简单的回归任务,其中输入数据为 `[1, 2, 3, 4]`,对应的标签为 `[2, 4, 6, 8]`。模型用随机参数初始化,使用均方误差(MSE)作为损失函数,使用随机梯度下降(SGD)作为优化器进行参数更新。随着训练的进行,损失会逐渐减小。
阅读全文