for i in range(lookback,n_samples): inputs=data.iloc[i-lookback:i][['temperature','humidity','wind_speeed','pollutant']] target_val=100+inputs['pollutant']*0.2+np.random.normal(loc=0,scale=10)
时间: 2023-05-23 18:03:44 浏览: 96
这是一段 Python 代码,基于 pandas 库和 numpy 库,用于制定输入数据和目标数据。其中 lookback 是历史记录的数量,n_samples 是样本数量,输入数据包括温度、湿度、风速和污染物浓度等信息,目标数据为污染物浓度乘以 0.2 再加上一个符合正态分布的随机数。
相关问题
import torch import torch.utils.data as Data import numpy as np class BatchDataset(Data.Dataset): def __init__(self, x, y): self.x = x self.y = y def __len__(self): return len(self.x) def __getitem__(self, index): return self.x[index], self.y[index] def split_data(stock, lookback, in_list, out_index): data_raw = stock.to_numpy() # convert to numpy array data = [] # create all possible sequences of length seq_len for index in range(len(data_raw) - lookback): data.append(data_raw[index: index + lookback]) data = np.array(data) test_set_size = int(np.round(0.2*data.shape[0])) train_set_size = data.shape[0] - (test_set_size) x_train = data[:train_set_size,:-1,in_list] y_train = data[:train_set_size,-1,out_index,None] x_test = data[train_set_size:,:-1,in_list] y_test = data[train_set_size:,-1,out_index,None] return [x_train, y_train, x_test, y_test] 请给我这段代码的伪代码
这这段这段代码这段代码主这段代码主要这段代码主要是这段代码主要是定义这段代码主要是定义了这段代码主要是定义了一个这段代码主要是定义了一个 Batch这段代码主要是定义了一个 BatchDataset这段代码主要是定义了一个 BatchDataset 类这段代码主要是定义了一个 BatchDataset 类,这段代码主要是定义了一个 BatchDataset 类,用这段代码主要是定义了一个 BatchDataset 类,用于这段代码主要是定义了一个 BatchDataset 类,用于处理这段代码主要是定义了一个 BatchDataset 类,用于处理数据这段代码主要是定义了一个 BatchDataset 类,用于处理数据集这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,得这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,得到这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,得到一个这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,得到一个满这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,得到一个满足这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,得到一个满足要这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,得到一个满足要求这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,得到一个满足要求的这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,得到一个满足要求的数据这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,得到一个满足要求的数据集这段代码主要是定义了一个 BatchDataset 类,用于处理数据集。类中包含多个方法,比如初始化函数、长度函数、获取数据函数等等。其中最关键的是 split_data 函数,用于将输入数据进行预处理,使其适用于神经网络的训练。这个函数会将原始数据转化成 numpy 格式,调用 numpy 的方法进行分离和重组,得到一个满足要求的数据集。
写一个python Flask销售预测系统,系统有一个suanfa.py文件,该文件的作用:先读取shuju.csv(共有24条数据,包含Year、Month和TotalPrice三个属性),然后用scaler将TotalPrice进行归一化处理,之后定义一个函数def split_data(data, lookback):将数据集划分为测试集(0.2)和训练集(0.8),data_raw = data.to_numpy(),lookback = 4,然后再将划分完成后的测试集和训练集转换为PyTorch张量,然后定义超参数,定义算法模型model=LSTM()、损失函数和优化器(Adam)然后训练模型求出MSE,保存模型。有一个predict.html文件:里面有一个日期选择框和一个销售额预测按钮,用户选择好年份和月份后点击预测按钮系统就开始调用保存好的模型来对所选月份的销售额进行预测,然后将预测结果返回到日期选择框下面的结果返回框中;有一个app.py文件:定义路径。用flask和bootstrap、LayUI写出完整详细代码
这是一个比较完整的 Flask 销售预测系统,包含了前端页面和后端算法模型。使用了 Bootstrap 和 LayUI 两个前端框架,用 PyTorch 框架实现了 LSTM 模型进行销售预测。
suanfa.py 文件:
```python
import torch
import pandas as pd
import numpy as np
from sklearn.preprocessing import MinMaxScaler
def split_data(data, lookback):
data_raw = data.to_numpy()
data = []
# create all possible sequences of length lookback
for index in range(len(data_raw) - lookback):
data.append(data_raw[index: index + lookback])
data = np.array(data)
test_set_size = int(np.round(0.2*data.shape[0]))
train_set_size = data.shape[0] - (test_set_size)
x_train = torch.from_numpy(np.array(data[:train_set_size,:-1,:]))
y_train = torch.from_numpy(np.array(data[:train_set_size,-1,:]))
x_test = torch.from_numpy(np.array(data[train_set_size:,:-1,:]))
y_test = torch.from_numpy(np.array(data[train_set_size:,-1,:]))
return x_train.float(), y_train.float(), x_test.float(), y_test.float()
class LSTM(torch.nn.Module):
def __init__(self, input_dim, hidden_dim, num_layers, output_dim):
super(LSTM, self).__init__()
self.hidden_dim = hidden_dim
self.num_layers = num_layers
self.lstm = torch.nn.LSTM(input_dim, hidden_dim, num_layers, batch_first=True)
self.fc = torch.nn.Linear(hidden_dim, output_dim)
def forward(self, x):
h0 = torch.zeros(self.num_layers, x.size(0), self.hidden_dim).requires_grad_()
c0 = torch.zeros(self.num_layers, x.size(0), self.hidden_dim).requires_grad_()
out, (hn, cn) = self.lstm(x, (h0.detach(), c0.detach()))
out = self.fc(out[:, -1, :])
return out
if __name__ == '__main__':
data = pd.read_csv('shuju.csv')
scaler = MinMaxScaler(feature_range=(-1, 1))
data['TotalPrice'] = scaler.fit_transform(data['TotalPrice'].values.reshape(-1,1))
x_train, y_train, x_test, y_test = split_data(data[['Year','Month','TotalPrice']], 4)
input_dim = 3
hidden_dim = 12
num_layers = 1
output_dim = 1
num_epochs = 1000
model = LSTM(input_dim=input_dim, hidden_dim=hidden_dim, output_dim=output_dim, num_layers=num_layers)
loss_fn = torch.nn.MSELoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.001)
for t in range(num_epochs):
y_pred = model(x_train)
loss = loss_fn(y_pred, y_train)
if t % 100 == 0:
print("Epoch ", t, "MSE: ", loss.item())
optimizer.zero_grad()
loss.backward()
optimizer.step()
torch.save(model.state_dict(), 'model_lstm.pth')
```
predict.html 文件:
```html
<!DOCTYPE html>
<html>
<head>
<meta charset="UTF-8">
<title>销售预测系统</title>
<link rel="stylesheet" href="https://cdn.bootcdn.net/ajax/libs/layui/2.5.7/css/layui.min.css">
<link rel="stylesheet" href="https://cdn.bootcdn.net/ajax/libs/twitter-bootstrap/4.5.3/css/bootstrap.min.css">
<script src="https://cdn.bootcdn.net/ajax/libs/jquery/3.5.1/jquery.min.js"></script>
<script src="https://cdn.bootcdn.net/ajax/libs/layui/2.5.7/layui.min.js"></script>
<script src="https://cdn.bootcdn.net/ajax/libs/twitter-bootstrap/4.5.3/js/bootstrap.min.js"></script>
</head>
<body>
<div class="container">
<div class="row justify-content-center mt-5">
<div class="col-md-6">
<div class="form-group">
<label for="year">年份:</label>
<select class="form-control" id="year">
<option value="2014">2014</option>
<option value="2015">2015</option>
<option value="2016">2016</option>
<option value="2017">2017</option>
<option value="2018">2018</option>
<option value="2019">2019</option>
<option value="2020">2020</option>
</select>
</div>
<div class="form-group">
<label for="month">月份:</label>
<select class="form-control" id="month">
<option value="1">1</option>
<option value="2">2</option>
<option value="3">3</option>
<option value="4">4</option>
<option value="5">5</option>
<option value="6">6</option>
<option value="7">7</option>
<option value="8">8</option>
<option value="9">9</option>
<option value="10">10</option>
<option value="11">11</option>
<option value="12">12</option>
</select>
</div>
<div class="form-group">
<button class="btn btn-primary" onclick="predict()">销售额预测</button>
</div>
<div class="form-group">
<label for="result">预测结果:</label>
<input type="text" class="form-control" id="result" disabled>
</div>
</div>
</div>
</div>
<script>
function predict() {
var year = $('#year').val();
var month = $('#month').val();
$.ajax({
url: '/predict',
method: 'POST',
data: {
'year': year,
'month': month
},
success: function(response) {
$('#result').val(response);
}
});
}
</script>
</body>
</html>
```
app.py 文件:
```python
from flask import Flask, render_template, request, jsonify
import suanfa
import torch
import pandas as pd
from sklearn.preprocessing import MinMaxScaler
app = Flask(__name__)
@app.route('/')
def index():
return render_template('predict.html')
@app.route('/predict', methods=['POST'])
def predict():
year = int(request.form['year'])
month = int(request.form['month'])
data = pd.read_csv('shuju.csv')
scaler = MinMaxScaler(feature_range=(-1, 1))
data['TotalPrice'] = scaler.fit_transform(data['TotalPrice'].values.reshape(-1,1))
x_train, y_train, x_test, y_test = suanfa.split_data(data[['Year','Month','TotalPrice']], 4)
input_dim = 3
hidden_dim = 12
num_layers = 1
output_dim = 1
model = suanfa.LSTM(input_dim=input_dim, hidden_dim=hidden_dim, output_dim=output_dim, num_layers=num_layers)
model.load_state_dict(torch.load('model_lstm.pth'))
test_inputs = torch.from_numpy(np.array(data[['Year','Month','TotalPrice']][-3:].values))
test_inputs = test_inputs.view(1, -1, 3).float()
model.eval()
y_pred = scaler.inverse_transform(model(test_inputs).detach().numpy())
return jsonify(round(float(y_pred)), 2)
if __name__ == '__main__':
app.run(debug=True)
```
注意:在运行之前需要将 `shuju.csv` 文件和 `model_lstm.pth` 文件放到与 `app.py` 文件同一目录下。另外,需要安装 Flask 和 PyTorch 库,可以使用以下命令进行安装:
```shell
pip install flask torch pandas scikit-learn
```
阅读全文