import pandas as pd from sklearn.preprocessing import MinMaxScaler from sklearn.model_selection import train_test_split from keras.models import Sequential from keras.layers import Dense from keras.models import load_model model = load_model('model.h5') # 读取Excel文件 data = pd.read_excel('D://数据1.xlsx', sheet_name='4') # 把数据分成输入和输出 X = data.iloc[:, 0:5].values y = data.iloc[:, 0:5].values # 对输入和输出数据进行归一化 scaler_X = MinMaxScaler(feature_range=(0, 6)) X = scaler_X.fit_transform(X) scaler_y = MinMaxScaler(feature_range=(0, 6)) y = scaler_y.fit_transform(y) # 将数据集分成训练集和测试集 X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=0) # 创建神经网络模型 model = Sequential() model.add(Dense(units=4, input_dim=4, activation='relu')) model.add(Dense(units=36, activation='relu')) model.add(Dense(units=4, activation='relu')) model.add(Dense(units=4, activation='linear')) # 编译模型 model.compile(loss='mean_squared_error', optimizer='sgd') # 训练模型 model.fit(X_train, y_train, epochs=100, batch_size=1257) # 评估模型 score = model.evaluate(X_test, y_test, batch_size=30) print('Test loss:', score) # 使用训练好的模型进行预测 X_test_scaled = scaler_X.transform(X_test) y_pred = model.predict(X_test_scaled) # 对预测结果进行反归一化 y_pred_int = scaler_y.inverse_transform(y_pred).round().astype(int) # 构建带有概率的预测结果 y_pred_prob = pd.DataFrame(y_pred_int, columns=data.columns[:4]) mse = ((y_test - y_pred) ** 2).mean(axis=None) y_pred_prob['Probability'] = 1 / (1 + mse - ((y_pred_int - y_test) ** 2).mean(axis=None)) # 过滤掉和值超过6或小于6的预测值 y_pred_filtered = y_pred_prob[(y_pred_prob.iloc[:, :4].sum(axis=1) == 6)] # 去除重复的行 y_pred_filtered = y_pred_filtered.drop_duplicates() # 重新计算低于1.2的 Probability 值 low_prob_indices = y_pred_filtered[y_pred_filtered['Probability'] < 1.5].index for i in low_prob_indices: y_pred_int_i = y_pred_int[i] y_test_i = y_test[i] mse_i = ((y_test_i - y_pred_int_i) ** 2).mean(axis=None) new_prob_i = 1 / (1 + mse_i - ((y_pred_int_i - y_test_i) ** 2).mean(axis=None)) y_pred_filtered.at[i, 'Probability'] = new_prob_i # 打印带有概率的预测结果 print('Predicted values with probabilities:') print(y_pred_filtered)
时间: 2024-02-09 17:09:24 浏览: 25
根据你之前的说明,应该是将第5行的代码从:
```python
model = load_model('model.h5')
```
改为:
```python
model = None
```
这样就可以重新声明一个没有用的 `model` 变量了。
相关问题
import time import pandas as pd from sklearn.model_selection import train_test_split from sklearn.preprocessing import MinMaxScaler import numpy as np import tensorflow as tf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, Dropout import tkinter as tk from tkinter import ttk from sklearn.neural_network import MLPClassifier from sklearn.preprocessing import StandardScaler from tkinter.messagebox import showinfo # pip install pyserial import serial import serial.tools.list_ports from main import MyClass if __name__ == '__main__': detect = MyClass() def collect_data_click(): detect.on_collect_data_click()
这段代码看起来是一个 Python 脚本,主要包括以下几个部分:
1. 导入需要的库:time、pandas、sklearn、numpy、tensorflow、tkinter、serial 等。
2. 从 tensorflow.keras 中导入 Sequential 和 Dense 两个类,用于搭建神经网络模型。
3. 定义了一个名为 `MyClass` 的类,并创建了一个 `detect` 实例。
4. 定义了一个名为 `collect_data_click()` 的函数,该函数调用了 `detect` 实例的 `on_collect_data_click()` 方法。
其中,`detect` 实例似乎是一个自定义的类对象,`on_collect_data_click()` 方法可能用于启动数据采集。如果需要更详细的分析,建议查看 `MyClass` 类和 `on_collect_data_click()` 方法的源代码。
import pandas as pd import numpy as np import tushare as ts from sklearn.preprocessing import MinMaxScaler import matplotlib.pyplot as plt import mplfinance as mpf from tensorflow.keras.models import Sequential from tensorflow.keras.layers import Dense, LSTM
这是一段 Python 代码,导入了一些常用的数据分析和机器学习库,包括 Pandas、NumPy、Tushare、Sklearn、Matplotlib、mplfinance 和 TensorFlow。其中,Pandas 用于数据处理和分析,NumPy 用于科学计算,Tushare 用于获取股票数据,Sklearn 用于数据预处理,Matplotlib 和 mplfinance 用于数据可视化,TensorFlow 用于机器学习建模。这段代码还定义了一个 Sequential 模型,并导入了 Dense 和 LSTM 层,用于搭建神经网络模型。
相关推荐
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)