lstm多变量输入回归预测模型_Keras中的多变量时间序列预测-LSTMs
时间: 2023-09-19 12:12:26 浏览: 187
LSTM(长短时记忆网络)是一种递归神经网络,可以用于时间序列预测。在Keras中,可以使用LSTM层来构建多变量时间序列预测模型。以下是使用LSTM进行多变量时间序列预测的步骤:
1. 准备数据:将多个变量作为输入特征和一个变量作为输出特征,将数据划分为训练集、验证集和测试集。
2. 构建模型:使用Keras的Sequential模型或函数式API构建LSTM模型。在模型中添加LSTM层,并指定输入大小、输出大小和LSTM单元数。
3. 编译模型:使用compile()方法编译模型,并指定损失函数和优化器。
4. 训练模型:使用fit()方法训练模型,并指定批次大小、训练轮数和验证集。
5. 评估模型:使用evaluate()方法评估模型在测试集上的性能。
6. 预测结果:使用predict()方法预测新的输入数据的输出。
以下是一个使用Keras的LSTM层进行多变量时间序列预测的示例代码:
```python
from keras.models import Sequential
from keras.layers import LSTM, Dense
from sklearn.metrics import mean_squared_error
import numpy as np
# 准备数据
def create_dataset(data, look_back):
X, Y = [], []
for i in range(len(data)-look_back-1):
X.append(data[i:(i+look_back), :])
Y.append(data[(i+look_back), 0])
return np.array(X), np.array(Y)
# 加载数据
data = np.loadtxt("data.csv", delimiter=",")
look_back = 3
# 划分数据集
train_size = int(len(data) * 0.67)
test_size = len(data) - train_size
train, test = data[0:train_size,:], data[train_size:len(data),:]
# 创建输入输出数据集
trainX, trainY = create_dataset(train, look_back)
testX, testY = create_dataset(test, look_back)
# 构建模型
model = Sequential()
model.add(LSTM(4, input_shape=(look_back, 3)))
model.add(Dense(1))
model.compile(loss='mean_squared_error', optimizer='adam')
# 训练模型
model.fit(trainX, trainY, epochs=100, batch_size=1, validation_data=(testX, testY))
# 评估模型
trainScore = model.evaluate(trainX, trainY, verbose=0)
print('Train Score: %.2f MSE' % (trainScore))
testScore = model.evaluate(testX, testY, verbose=0)
print('Test Score: %.2f MSE' % (testScore))
# 预测结果
trainPredict = model.predict(trainX)
testPredict = model.predict(testX)
# 反归一化预测结果
trainPredict = scaler.inverse_transform(trainPredict)
trainY = scaler.inverse_transform([trainY])
testPredict = scaler.inverse_transform(testPredict)
testY = scaler.inverse_transform([testY])
# 计算均方根误差
trainScore = math.sqrt(mean_squared_error(trainY[0], trainPredict[:,0]))
print('Train Score: %.2f RMSE' % (trainScore))
testScore = math.sqrt(mean_squared_error(testY[0], testPredict[:,0]))
print('Test Score: %.2f RMSE' % (testScore))
```
在上面的代码中,我们使用LSTM层构建了一个包含4个LSTM单元的LSTM模型。模型的输入大小为(3,3),即每个时间步长包含3个输入特征。模型的输出大小为1,即我们预测一个变量的值。我们使用均方误差作为模型的损失函数,并使用Adam优化器训练模型。在训练模型时,我们将批次大小设置为1,训练轮数设置为100,并在验证集上评估模型的性能。最后,我们使用模型预测新的输入数据的输出,并计算均方根误差作为模型的性能指标。
阅读全文