将预测的y和真实的y输出到一个表格中
时间: 2024-04-08 15:30:40 浏览: 22
要将预测的y和真实的y输出到一个表格中,你可以使用pandas库来创建和管理表格数据。以下是一个示例代码,演示了如何将预测的y和真实的y输出到一个表格:
```python
import pandas as pd
import numpy as np
# 假设有4个样本
y_true = np.array([0, 1, 2, 3])
y_pred = np.array([0, 1, 1, 3])
# 创建一个包含预测和真实y的DataFrame
df = pd.DataFrame({'真实y': y_true, '预测y': y_pred})
# 输出DataFrame
print(df)
```
运行以上代码,你将获得一个包含真实y和预测y的表格,如下所示:
```
真实y 预测y
0 0 0
1 1 1
2 2 1
3 3 3
```
你可以根据实际情况修改代码以适应你的数据。如果你有更多的预测和真实值,只需将它们添加到相应的数组中,并在创建DataFrame时指定相应的列名即可。
相关问题
使用python写一个使用Xavier初始化、正则化方法和MSGD的BP网络(8个输入,1个输出,5个隐藏节点),并写一个main实现将训练集投入网络训练,训练后将测试集投入得出预测输出。训练和测试数据均存在同一个xlsx文件的同一个页面表格中。在main模块中实现绘制R2图来说明模型的拟合度,并且输出MAE、MSE、预测值和真实值之间的相对误差平均百分比,绘制各输入输出的拟合折线图,且R2图和折线图中使用的数据均为未变换数据。
好的,这里给出一个可能的代码实现,需要用到 pandas、numpy、sklearn、matplotlib 库:
```python
import pandas as pd
import numpy as np
from sklearn.preprocessing import MinMaxScaler
from sklearn.metrics import r2_score, mean_absolute_error, mean_squared_error
import matplotlib.pyplot as plt
# Xavier初始化
def xavier_init(in_dim, out_dim):
xavier_stddev = np.sqrt(2.0 / (in_dim + out_dim))
return np.random.normal(0, xavier_stddev, (in_dim, out_dim))
# 正则化方法
def l2_regularization(lamda, w1, w2):
return lamda * (np.sum(w1 ** 2) + np.sum(w2 ** 2))
# sigmoid激活函数
def sigmoid(x):
return 1 / (1 + np.exp(-x))
# BP网络类
class BPNet:
def __init__(self, input_dim, hidden_dim, output_dim, lr, lamda):
self.input_dim = input_dim
self.hidden_dim = hidden_dim
self.output_dim = output_dim
self.lr = lr
self.lamda = lamda
self.w1 = xavier_init(self.input_dim, self.hidden_dim)
self.b1 = np.zeros((1, self.hidden_dim))
self.w2 = xavier_init(self.hidden_dim, self.output_dim)
self.b2 = np.zeros((1, self.output_dim))
# 前向传播
def forward(self, X):
self.z1 = np.dot(X, self.w1) + self.b1
self.a1 = sigmoid(self.z1)
self.z2 = np.dot(self.a1, self.w2) + self.b2
y_pred = self.z2
return y_pred
# 反向传播
def backward(self, X, y_true, y_pred):
delta2 = y_pred - y_true
dw2 = np.dot(self.a1.T, delta2)
db2 = np.sum(delta2, axis=0)
delta1 = np.dot(delta2, self.w2.T) * self.a1 * (1 - self.a1)
dw1 = np.dot(X.T, delta1)
db1 = np.sum(delta1, axis=0)
dw2 += self.lamda * self.w2
dw1 += self.lamda * self.w1
self.w2 -= self.lr * dw2
self.b2 -= self.lr * db2
self.w1 -= self.lr * dw1
self.b1 -= self.lr * db1
# 训练函数
def train(self, X_train, y_train, epochs):
for i in range(epochs):
y_pred = self.forward(X_train)
loss = mean_squared_error(y_train, y_pred) + l2_regularization(self.lamda, self.w1, self.w2)
self.backward(X_train, y_train, y_pred)
if i % 100 == 0:
print("Epoch:", i, "Loss:", loss)
# 预测函数
def predict(self, X_test):
y_pred = self.forward(X_test)
return y_pred
# 读取数据
data = pd.read_excel("data.xlsx", sheet_name="Sheet1")
X = data.iloc[:, :8].values
y = data.iloc[:, -1].values.reshape(-1, 1)
# 数据归一化
scaler = MinMaxScaler()
X = scaler.fit_transform(X)
y = scaler.fit_transform(y)
# 划分训练集和测试集
X_train, X_test = X[:100], X[100:]
y_train, y_test = y[:100], y[100:]
# 训练模型
bpnet = BPNet(input_dim=8, hidden_dim=5, output_dim=1, lr=0.1, lamda=0.01)
bpnet.train(X_train, y_train, epochs=1000)
# 预测并逆归一化
y_pred = bpnet.predict(X_test)
y_test = scaler.inverse_transform(y_test)
y_pred = scaler.inverse_transform(y_pred)
# 计算误差指标
r2 = r2_score(y_test, y_pred)
mae = mean_absolute_error(y_test, y_pred)
mse = mean_squared_error(y_test, y_pred)
error_pct = np.mean(np.abs(y_test - y_pred) / y_test) * 100
# 绘制R2图
plt.plot(y_test, y_test, "r--")
plt.scatter(y_test, y_pred, alpha=0.5)
plt.title(f"R2 Score: {r2:.4f}")
plt.xlabel("True Value")
plt.ylabel("Predicted Value")
plt.show()
# 绘制拟合折线图
inputs = ["Input 1", "Input 2", "Input 3", "Input 4", "Input 5", "Input 6", "Input 7", "Input 8"]
fig, axs = plt.subplots(nrows=2, ncols=4, figsize=(16, 8))
for i, ax in enumerate(axs.flatten()):
ax.plot(y_test[:, 0], label="True Value")
ax.plot(y_pred[:, 0], label="Predicted Value")
ax.set_xlabel(inputs[i])
ax.set_ylabel("Output")
ax.legend()
plt.tight_layout()
plt.show()
# 输出误差指标
print(f"MAE: {mae:.4f}")
print(f"MSE: {mse:.4f}")
print(f"Error Percentage: {error_pct:.2f}%")
```
需要注意的是,这里使用了 MinMaxScaler 对输入和输出数据进行了归一化处理,因此在计算误差指标时需要将预测值和真实值逆归一化。同时,由于数据量较小,没有进行交叉验证等进一步的模型评估。
使用python写一个使用归一化、Xavier初始化、正则化方法和MSGD的BP网络(8个输入,1个输出,5个隐藏节点),并写一个main实现将训练集投入网络训练,训练后将测试集投入得出预测输出。训练和测试数据均存在同一个xlsx文件的同一个页面表格中。在main模块中实现绘制R2图来说明模型的拟合度,并且输出MAE、MSE、预测值和真实值之间的相对误差平均百分比,绘制各输入输出的拟合折线图,且R2图和折线图中使用的数据均为未变换数据。
好的,这里是一个简单的实现,仅供参考:
```python
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
# sigmoid函数
def sigmoid(x):
return 1 / (1 + np.exp(-x))
# sigmoid函数的导数
def sigmoid_derivative(x):
return x * (1 - x)
# 归一化
def normalize(X):
X = (X - np.min(X)) / (np.max(X) - np.min(X))
return X
# Xavier初始化
def xavier_init(n_input, n_output):
W = np.random.randn(n_input, n_output) * np.sqrt(1 / (n_input + n_output))
return W
# 正则化
def regularization(W, lambd):
return W * (1 - lambd)
class NeuralNetwork:
def __init__(self, n_input, n_hidden, n_output, learning_rate, lambd):
self.n_input = n_input
self.n_hidden = n_hidden
self.n_output = n_output
self.learning_rate = learning_rate
self.lambd = lambd
self.W1 = xavier_init(n_input, n_hidden)
self.W2 = xavier_init(n_hidden, n_output)
def forward(self, X):
self.z1 = np.dot(X, self.W1)
self.a1 = sigmoid(self.z1)
self.z2 = np.dot(self.a1, self.W2)
self.y_hat = sigmoid(self.z2)
return self.y_hat
def backward(self, X, y, y_hat):
delta2 = (y_hat - y) * sigmoid_derivative(y_hat)
dW2 = np.dot(self.a1.T, delta2)
delta1 = np.dot(delta2, self.W2.T) * sigmoid_derivative(self.a1)
dW1 = np.dot(X.T, delta1)
# 添加正则化项
dW1 = regularization(dW1, self.lambd)
dW2 = regularization(dW2, self.lambd)
self.W1 -= self.learning_rate * dW1
self.W2 -= self.learning_rate * dW2
def train(self, X, y, epochs):
m = X.shape[0]
for i in range(epochs):
y_hat = self.forward(X)
loss = np.mean(np.square(y_hat - y))
self.backward(X, y, y_hat)
print('Epoch:', i+1, 'Loss:', loss)
def predict(self, X):
return self.forward(X)
# 读取数据
data = pd.read_excel('data.xlsx', sheet_name='Sheet1')
X_train = data.iloc[:10, :8].values
y_train = data.iloc[:10, 8:].values
X_test = data.iloc[10:, :8].values
y_test = data.iloc[10:, 8:].values
# 归一化
X_train = normalize(X_train)
y_train = normalize(y_train)
X_test = normalize(X_test)
y_test = normalize(y_test)
# 训练模型
model = NeuralNetwork(n_input=8, n_hidden=5, n_output=1, learning_rate=0.1, lambd=0.01)
model.train(X_train, y_train, epochs=1000)
# 预测并计算指标
y_pred = model.predict(X_test)
r2 = 1 - np.sum(np.square(y_test - y_pred)) / np.sum(np.square(y_test - np.mean(y_test)))
mae = np.mean(np.abs(y_test - y_pred))
mse = np.mean(np.square(y_test - y_pred))
error = np.mean(np.abs(y_test - y_pred) / y_test) * 100
print('R2:', r2)
print('MAE:', mae)
print('MSE:', mse)
print('Error:', error)
# 绘制拟合折线图
plt.plot(y_test, label='True')
plt.plot(y_pred, label='Predicted')
plt.legend()
plt.show()
# 绘制R2图
plt.scatter(y_test, y_pred)
plt.plot([0, 1], [0, 1], '--', color='red')
plt.xlabel('True')
plt.ylabel('Predicted')
plt.title('R2: {}'.format(r2))
plt.show()
```
需要注意的是,这里使用的是全样本梯度下降法,可能会存在过拟合的问题,可以通过加入早停法等方法进行改进。另外,这里使用的是最简单的单层网络,如果需要提高拟合度,可以考虑使用多层神经网络。
相关推荐
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![](https://csdnimg.cn/download_wenku/file_type_ask_c1.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)
![zip](https://img-home.csdnimg.cn/images/20210720083736.png)
![pdf](https://img-home.csdnimg.cn/images/20210720083512.png)