使用python写一个使用Xavier初始化、正则化方法和MSGD的BP网络(8个输入,1个输出,5个隐藏节点),并写一个main实现将训练集投入网络训练,训练后将测试集投入得出预测输出。训练和测试数据均存在同一个xlsx文件的同一个页面表格中,而训练集和测试集存于名为"NEW.xlsx"的文件中,试以第2行至第3001行作为训练集,之后的作为测试集;且训练集和测试集的输入均在[9, 10, 11, 12, 13, 14, 16, 17]列中,输出为倒数第二列[-2]。 。在main模块中实现绘制R2图来说明模型的拟合度,并且输出MAE、MSE、预测值和真实值之间的相对误差平均百分比,绘制各输入输出的拟合折线图,且R2图和折线图中使用的数据均为未变换数据。

时间: 2023-12-10 12:38:47 浏览: 23
抱歉,由于这是一个较为复杂的任务,无法在一次回答中详细解决。我将提供一些思路和代码示例,希望可以帮助您完成此任务。 首先,需要安装一些必要的库,如pandas、numpy、matplotlib等: ```python import pandas as pd import numpy as np import matplotlib.pyplot as plt ``` 接下来,读取数据并将其分为训练集和测试集: ```python data = pd.read_excel('NEW.xlsx', sheet_name='Sheet1') train_data = data.iloc[1:3001, [9, 10, 11, 12, 13, 14, 16, 17, -2]] test_data = data.iloc[3001:, [9, 10, 11, 12, 13, 14, 16, 17, -2]] ``` 然后,需要对数据进行归一化处理。这里使用min-max归一化方法: ```python def min_max_normalize(data): return (data - np.min(data)) / (np.max(data) - np.min(data)) train_data_norm = min_max_normalize(train_data) test_data_norm = min_max_normalize(test_data) ``` 接下来,需要定义网络结构和相关参数,并进行Xavier初始化: ```python input_size = 8 hidden_size = 5 output_size = 1 learning_rate = 0.1 epochs = 100 # Xavier initialization weights_input_hidden = np.random.randn(input_size, hidden_size) * np.sqrt(1/input_size) weights_hidden_output = np.random.randn(hidden_size, output_size) * np.sqrt(1/hidden_size) bias_hidden = np.zeros((1, hidden_size)) bias_output = np.zeros((1, output_size)) ``` 定义激活函数和损失函数: ```python # ReLU activation function def relu(x): return np.maximum(0, x) # Mean Squared Error loss function def mse_loss(y_pred, y_true): return np.mean((y_pred - y_true)**2) ``` 定义训练函数和预测函数: ```python def train(X, y, weights_input_hidden, weights_hidden_output, bias_hidden, bias_output, learning_rate, epochs): for i in range(epochs): # Forward propagation hidden_layer = np.dot(X, weights_input_hidden) + bias_hidden hidden_layer_activation = relu(hidden_layer) output_layer = np.dot(hidden_layer_activation, weights_hidden_output) + bias_output # Backpropagation error = output_layer - y d_output = error / len(X) d_weights_hidden_output = np.dot(hidden_layer_activation.T, d_output) d_bias_output = np.sum(d_output, axis=0, keepdims=True) d_hidden = np.dot(d_output, weights_hidden_output.T) d_hidden[hidden_layer <= 0] = 0 d_weights_input_hidden = np.dot(X.T, d_hidden) d_bias_hidden = np.sum(d_hidden, axis=0, keepdims=True) # Update weights and biases weights_input_hidden -= learning_rate * d_weights_input_hidden weights_hidden_output -= learning_rate * d_weights_hidden_output bias_hidden -= learning_rate * d_bias_hidden bias_output -= learning_rate * d_bias_output # Print MSE loss every 10 epochs if i % 10 == 0: loss = mse_loss(output_layer, y) print(f"Epoch {i}, Loss: {loss:.6f}") return weights_input_hidden, weights_hidden_output, bias_hidden, bias_output def predict(X, weights_input_hidden, weights_hidden_output, bias_hidden, bias_output): hidden_layer = np.dot(X, weights_input_hidden) + bias_hidden hidden_layer_activation = relu(hidden_layer) output_layer = np.dot(hidden_layer_activation, weights_hidden_output) + bias_output return output_layer ``` 使用训练集进行训练: ```python X_train = train_data_norm.iloc[:, :-1].values y_train = train_data_norm.iloc[:, -1:].values weights_input_hidden, weights_hidden_output, bias_hidden, bias_output = train(X_train, y_train, weights_input_hidden, weights_hidden_output, bias_hidden, bias_output, learning_rate, epochs) ``` 使用测试集进行预测,并计算各项指标: ```python X_test = test_data_norm.iloc[:, :-1].values y_test = test_data_norm.iloc[:, -1:].values y_pred = predict(X_test, weights_input_hidden, weights_hidden_output, bias_hidden, bias_output) # Transform normalized data back to original scale y_test_orig = test_data.iloc[:, -2:].values y_pred_orig = y_pred * (np.max(y_test_orig) - np.min(y_test_orig)) + np.min(y_test_orig) # Calculate R2 score r2_score = 1 - np.sum((y_test_orig - y_pred_orig)**2) / np.sum((y_test_orig - np.mean(y_test_orig))**2) print(f"R2 score: {r2_score:.6f}") # Calculate MAE and MSE mae = np.mean(np.abs(y_test_orig - y_pred_orig)) mse = np.mean((y_test_orig - y_pred_orig)**2) print(f"MAE: {mae:.6f}") print(f"MSE: {mse:.6f}") # Calculate relative error percentage rel_error = np.mean(np.abs((y_test_orig - y_pred_orig) / y_test_orig)) * 100 print(f"Relative error percentage: {rel_error:.6f}%") ``` 绘制各输入输出的拟合折线图: ```python fig, axs = plt.subplots(2, 4, figsize=(20,10)) axs = axs.flatten() for i in range(8): axs[i].scatter(X_test[:, i], y_test_orig, s=5) axs[i].plot(X_test[:, i], y_pred_orig, color='red') axs[i].set_xlabel(f'Input {i+1}') axs[i].set_ylabel('Output') plt.show() ``` 绘制R2图: ```python plt.scatter(y_test_orig, y_pred_orig) plt.plot([np.min(y_test_orig), np.max(y_test_orig)], [np.min(y_test_orig), np.max(y_test_orig)], color='red') plt.xlabel('True Values') plt.ylabel('Predictions') plt.title(f'R2 score: {r2_score:.6f}') plt.show() ``` 完整代码如下:

相关推荐

zip
卷积神经网络(Convolutional Neural Networks, CNNs 或 ConvNets)是一类深度神经网络,特别擅长处理图像相关的机器学习和深度学习任务。它们的名称来源于网络中使用了一种叫做卷积的数学运算。以下是卷积神经网络的一些关键组件和特性: 卷积层(Convolutional Layer): 卷积层是CNN的核心组件。它们通过一组可学习的滤波器(或称为卷积核、卷积器)在输入图像(或上一层的输出特征图)上滑动来工作。 滤波器和图像之间的卷积操作生成输出特征图,该特征图反映了滤波器所捕捉的局部图像特性(如边缘、角点等)。 通过使用多个滤波器,卷积层可以提取输入图像中的多种特征。 激活函数(Activation Function): 在卷积操作之后,通常会应用一个激活函数(如ReLU、Sigmoid或tanh)来增加网络的非线性。 池化层(Pooling Layer): 池化层通常位于卷积层之后,用于降低特征图的维度(空间尺寸),减少计算量和参数数量,同时保持特征的空间层次结构。 常见的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling)。 全连接层(Fully Connected Layer): 在CNN的末端,通常会有几层全连接层(也称为密集层或线性层)。这些层中的每个神经元都与前一层的所有神经元连接。 全连接层通常用于对提取的特征进行分类或回归。 训练过程: CNN的训练过程与其他深度学习模型类似,通过反向传播算法和梯度下降(或其变种)来优化网络参数(如滤波器权重和偏置)。 训练数据通常被分为多个批次(mini-batches),并在每个批次上迭代更新网络参数。 应用: CNN在计算机视觉领域有着广泛的应用,包括图像分类、目标检测、图像分割、人脸识别等。 它们也已被扩展到处理其他类型的数据,如文本(通过卷积一维序列)和音频(通过卷积时间序列)。 随着深度学习技术的发展,卷积神经网络的结构和设计也在不断演变,出现了许多新的变体和改进,如残差网络(ResNet)、深度卷积生成对抗网络(DCGAN)等。

最新推荐

recommend-type

基于Springboot + Mybatis框架实现的一个简易的商场购物系统.zip

基于springboot的java毕业&课程设计
recommend-type

用于 CNO 实验的 MATLAB 脚本.zip

1.版本:matlab2014/2019a/2021a 2.附赠案例数据可直接运行matlab程序。 3.代码特点:参数化编程、参数可方便更改、代码编程思路清晰、注释明细。 4.适用对象:计算机,电子信息工程、数学等专业的大学生课程设计、期末大作业和毕业设计。
recommend-type

基于卷积神经网络的垃圾分类.zip

卷积神经网络(Convolutional Neural Networks, CNNs 或 ConvNets)是一类深度神经网络,特别擅长处理图像相关的机器学习和深度学习任务。它们的名称来源于网络中使用了一种叫做卷积的数学运算。以下是卷积神经网络的一些关键组件和特性: 卷积层(Convolutional Layer): 卷积层是CNN的核心组件。它们通过一组可学习的滤波器(或称为卷积核、卷积器)在输入图像(或上一层的输出特征图)上滑动来工作。 滤波器和图像之间的卷积操作生成输出特征图,该特征图反映了滤波器所捕捉的局部图像特性(如边缘、角点等)。 通过使用多个滤波器,卷积层可以提取输入图像中的多种特征。 激活函数(Activation Function): 在卷积操作之后,通常会应用一个激活函数(如ReLU、Sigmoid或tanh)来增加网络的非线性。 池化层(Pooling Layer): 池化层通常位于卷积层之后,用于降低特征图的维度(空间尺寸),减少计算量和参数数量,同时保持特征的空间层次结构。 常见的池化操作包括最大池化(Max Pooling)和平均池化(Average Pooling)。 全连接层(Fully Connected Layer): 在CNN的末端,通常会有几层全连接层(也称为密集层或线性层)。这些层中的每个神经元都与前一层的所有神经元连接。 全连接层通常用于对提取的特征进行分类或回归。 训练过程: CNN的训练过程与其他深度学习模型类似,通过反向传播算法和梯度下降(或其变种)来优化网络参数(如滤波器权重和偏置)。 训练数据通常被分为多个批次(mini-batches),并在每个批次上迭代更新网络参数。 应用: CNN在计算机视觉领域有着广泛的应用,包括图像分类、目标检测、图像分割、人脸识别等。 它们也已被扩展到处理其他类型的数据,如文本(通过卷积一维序列)和音频(通过卷积时间序列)。 随着深度学习技术的发展,卷积神经网络的结构和设计也在不断演变,出现了许多新的变体和改进,如残差网络(ResNet)、深度卷积生成对抗网络(DCGAN)等。
recommend-type

基于 Yolov5的检测模型

运行程序 1、测试.pt模型文件 1.在pycharm里打开下载的yolov5环境,在根目录打开runs文件,找到trains文件中的best_1.pt即为训练最优模型。 2.在根目录找到 detect.py 文件,修改代码221行默认路径至模型路径,222行路径更改至所需测试图片路径,点击运行。 2、测试.onnx模型文件 1.在pycharm里打开下载的yolov5环境,在根目录打开 export.py 文件,修改默认输出模型类型为onnx,选择best_1.pt输入模型,点击运行。 2.在根目录找到detect_onnx.py文件,修改代码221行默认路径至模型路径,222行路径更改至所需测试图片路径,点击运行。
recommend-type

郁郁苍苍---基于SpringBoot的多人社区项目.zip

基于springboot的java毕业&课程设计
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

SQL怎么实现 数据透视表

SQL可以通过使用聚合函数和GROUP BY子句来实现数据透视表。 例如,假设有一个销售记录表,其中包含产品名称、销售日期、销售数量和销售额等信息。要创建一个按照产品名称、销售日期和销售额进行汇总的数据透视表,可以使用以下SQL语句: ``` SELECT ProductName, SaleDate, SUM(SaleQuantity) AS TotalQuantity, SUM(SaleAmount) AS TotalAmount FROM Sales GROUP BY ProductName, SaleDate; ``` 该语句将Sales表按照ProductName和SaleDat
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。