pytorch实现rnn训练的代码样例
时间: 2024-03-25 19:36:31 浏览: 21
下面是一个使用PyTorch实现RNN训练的代码样例,包括数据处理、模型定义、训练和测试四个部分:
```python
import torch
import torch.nn as nn
import numpy as np
# 数据处理部分
input_size = 1
output_size = 1
sequence_length = 10
data_size = 1000
inputs = np.random.randn(data_size, sequence_length, input_size)
targets = np.random.randn(data_size, output_size)
inputs = torch.from_numpy(inputs).float()
targets = torch.from_numpy(targets).float()
# 模型定义部分
class RNN(nn.Module):
def __init__(self, input_size, hidden_size, output_size):
super(RNN, self).__init__()
self.hidden_size = hidden_size
self.rnn = nn.RNN(input_size, hidden_size, batch_first=True)
self.linear = nn.Linear(hidden_size, output_size)
def forward(self, x):
h0 = torch.zeros(1, x.size(0), self.hidden_size)
out, hn = self.rnn(x, h0)
out = self.linear(out[:, -1, :])
return out
# 训练部分
num_epochs = 100
learning_rate = 0.01
model = RNN(input_size, hidden_size=16, output_size=output_size)
criterion = nn.MSELoss()
optimizer = torch.optim.Adam(model.parameters(), lr=learning_rate)
for epoch in range(num_epochs):
outputs = model(inputs)
loss = criterion(outputs, targets)
optimizer.zero_grad()
loss.backward()
optimizer.step()
if (epoch+1) % 10 == 0:
print("Epoch [{}/{}], Loss: {:.4f}".format(epoch+1, num_epochs, loss.item()))
# 测试部分
with torch.no_grad():
inputs_test = np.random.randn(1, sequence_length, input_size)
inputs_test = torch.from_numpy(inputs_test).float()
outputs_test = model(inputs_test)
print("Input: {}".format(inputs_test))
print("Output: {}".format(outputs_test))
```
这个代码样例实现了一个RNN模型,用于预测一个长度为10的时间序列的最后一个值。在训练部分中,使用MSE(Mean Squared Error)作为损失函数,使用Adam优化算法进行参数更新。在测试部分中,随机生成一个长度为10的时间序列的输入数据,将其输入到训练好的模型中,得到模型的输出结果。