Python实现LSTM多变量多步滚动预测以及可视化和误差分析代码

时间: 2024-01-09 10:03:46 浏览: 41
以下是Python实现LSTM多变量多步滚动预测的代码,包括可视化和误差分析: 首先,我们需要导入所需的库和数据: ```python import numpy as np import pandas as pd from keras.models import Sequential from keras.layers import LSTM, Dense from sklearn.preprocessing import MinMaxScaler import matplotlib.pyplot as plt # 读取数据 df = pd.read_csv('data.csv', parse_dates=['date']) df.set_index('date', inplace=True) ``` 我们需要将数据进行标准化: ```python # 标准化数据 scaler = MinMaxScaler() scaled_data = scaler.fit_transform(df) ``` 接下来,我们需要定义函数来将数据转换为LSTM模型的输入格式。我们将使用多个时间步作为输入来预测多个时间步。 ```python def create_dataset(data, look_back=1, look_forward=1): X, y = [], [] for i in range(len(data) - look_back - look_forward + 1): X.append(data[i:(i+look_back), :]) y.append(data[(i+look_back):(i+look_back+look_forward), 0]) return np.array(X), np.array(y) ``` 现在,我们可以将数据转换为LSTM模型的输入格式: ```python # 定义时间步长 look_back = 12 look_forward = 6 # 转换数据成LSTM模型的输入格式 X, y = create_dataset(scaled_data, look_back, look_forward) ``` 我们需要将数据分为训练集和测试集: ```python # 划分训练集和测试集 train_size = int(len(X) * 0.8) test_size = len(X) - train_size X_train, X_test = X[0:train_size,:,:], X[train_size:len(X),:,:] y_train, y_test = y[0:train_size,:], y[train_size:len(y),:] ``` 我们需要定义LSTM模型: ```python # 定义LSTM模型 model = Sequential() model.add(LSTM(50, input_shape=(X_train.shape[1], X_train.shape[2]))) model.add(Dense(look_forward)) model.compile(loss='mean_squared_error', optimizer='adam') ``` 现在,我们可以训练模型: ```python # 训练模型 model.fit(X_train, y_train, epochs=100, batch_size=32, validation_data=(X_test, y_test)) ``` 接下来,我们可以使用模型来进行预测: ```python # 预测数据 train_predict = model.predict(X_train) test_predict = model.predict(X_test) ``` 我们需要将预测结果反标准化: ```python # 反标准化预测值 train_predict = scaler.inverse_transform(np.concatenate((train_predict, np.zeros((train_predict.shape[0], scaled_data.shape[1]-look_forward))), axis=1))[:,0] y_train = scaler.inverse_transform(np.concatenate((y_train, np.zeros((y_train.shape[0], scaled_data.shape[1]-look_forward))), axis=1))[:,0] test_predict = scaler.inverse_transform(np.concatenate((test_predict, np.zeros((test_predict.shape[0], scaled_data.shape[1]-look_forward))), axis=1))[:,0] y_test = scaler.inverse_transform(np.concatenate((y_test, np.zeros((y_test.shape[0], scaled_data.shape[1]-look_forward))), axis=1))[:,0] ``` 我们可以绘制训练集和测试集的预测结果: ```python # 绘制训练集和测试集的预测结果 plt.plot(df.index[look_back:train_size], y_train, label='Train Data') plt.plot(df.index[look_back:train_size], train_predict, label='Train Predict') plt.plot(df.index[train_size+look_back:], y_test, label='Test Data') plt.plot(df.index[train_size+look_back:], test_predict, label='Test Predict') plt.legend() plt.show() ``` 最后,我们可以计算模型的误差: ```python # 计算模型的误差 train_rmse = np.sqrt(np.mean(np.square(train_predict - y_train))) test_rmse = np.sqrt(np.mean(np.square(test_predict - y_test))) print('Train RMSE: %.3f' % train_rmse) print('Test RMSE: %.3f' % test_rmse) ``` 完整的代码如下: ```python import numpy as np import pandas as pd from keras.models import Sequential from keras.layers import LSTM, Dense from sklearn.preprocessing import MinMaxScaler import matplotlib.pyplot as plt # 读取数据 df = pd.read_csv('data.csv', parse_dates=['date']) df.set_index('date', inplace=True) # 标准化数据 scaler = MinMaxScaler() scaled_data = scaler.fit_transform(df) # 定义函数将数据转换为LSTM模型的输入格式 def create_dataset(data, look_back=1, look_forward=1): X, y = [], [] for i in range(len(data) - look_back - look_forward + 1): X.append(data[i:(i+look_back), :]) y.append(data[(i+look_back):(i+look_back+look_forward), 0]) return np.array(X), np.array(y) # 定义时间步长 look_back = 12 look_forward = 6 # 转换数据成LSTM模型的输入格式 X, y = create_dataset(scaled_data, look_back, look_forward) # 划分训练集和测试集 train_size = int(len(X) * 0.8) test_size = len(X) - train_size X_train, X_test = X[0:train_size,:,:], X[train_size:len(X),:,:] y_train, y_test = y[0:train_size,:], y[train_size:len(y),:] # 定义LSTM模型 model = Sequential() model.add(LSTM(50, input_shape=(X_train.shape[1], X_train.shape[2]))) model.add(Dense(look_forward)) model.compile(loss='mean_squared_error', optimizer='adam') # 训练模型 model.fit(X_train, y_train, epochs=100, batch_size=32, validation_data=(X_test, y_test)) # 预测数据 train_predict = model.predict(X_train) test_predict = model.predict(X_test) # 反标准化预测值 train_predict = scaler.inverse_transform(np.concatenate((train_predict, np.zeros((train_predict.shape[0], scaled_data.shape[1]-look_forward))), axis=1))[:,0] y_train = scaler.inverse_transform(np.concatenate((y_train, np.zeros((y_train.shape[0], scaled_data.shape[1]-look_forward))), axis=1))[:,0] test_predict = scaler.inverse_transform(np.concatenate((test_predict, np.zeros((test_predict.shape[0], scaled_data.shape[1]-look_forward))), axis=1))[:,0] y_test = scaler.inverse_transform(np.concatenate((y_test, np.zeros((y_test.shape[0], scaled_data.shape[1]-look_forward))), axis=1))[:,0] # 绘制训练集和测试集的预测结果 plt.plot(df.index[look_back:train_size], y_train, label='Train Data') plt.plot(df.index[look_back:train_size], train_predict, label='Train Predict') plt.plot(df.index[train_size+look_back:], y_test, label='Test Data') plt.plot(df.index[train_size+look_back:], test_predict, label='Test Predict') plt.legend() plt.show() # 计算模型的误差 train_rmse = np.sqrt(np.mean(np.square(train_predict - y_train))) test_rmse = np.sqrt(np.mean(np.square(test_predict - y_test))) print('Train RMSE: %.3f' % train_rmse) print('Test RMSE: %.3f' % test_rmse) ```

相关推荐

最新推荐

recommend-type

HP-Socket编译-Linux

HP-Socket编译-Linux
recommend-type

JavaScript_生活在Discord上的开源社区列表.zip

JavaScript
recommend-type

JavaScript_MultiOn API.zip

JavaScript
recommend-type

JavaScript_简单和完整的React DOM测试工具,鼓励良好的测试实践.zip

JavaScript
recommend-type

JavaScript_成为一个Nodejs开发者.zip

JavaScript
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

可见光定位LED及其供电硬件具体型号,广角镜头和探测器,实验设计具体流程步骤,

1. 可见光定位LED型号:一般可使用5mm或3mm的普通白色LED,也可以选择专门用于定位的LED,例如OSRAM公司的SFH 4715AS或Vishay公司的VLMU3500-385-120。 2. 供电硬件型号:可以使用常见的直流电源供电,也可以选择专门的LED驱动器,例如Meanwell公司的ELG-75-C或ELG-150-C系列。 3. 广角镜头和探测器型号:一般可采用广角透镜和CMOS摄像头或光电二极管探测器,例如Omron公司的B5W-LA或Murata公司的IRS-B210ST01。 4. 实验设计流程步骤: 1)确定实验目的和研究对象,例如车辆或机器人的定位和导航。
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。