全连接神经网络模型回归预测代码
时间: 2023-09-09 08:13:15 浏览: 117
以下是一个使用全连接神经网络模型进行回归预测的 Python 代码示例:
```python
import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
from keras.models import Sequential
from keras.layers import Dense
# 加载数据集
data = pd.read_csv('data.csv')
# 分离特征和目标变量
X = data.drop('target', axis=1).values
y = data['target'].values
# 划分数据集为训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 创建神经网络模型
model = Sequential()
model.add(Dense(10, input_dim=X_train.shape[1], activation='relu'))
model.add(Dense(1, activation='linear'))
# 编译模型
model.compile(loss='mean_squared_error', optimizer='adam')
# 训练模型
model.fit(X_train, y_train, epochs=100, batch_size=32, verbose=0)
# 在测试集上进行预测
y_pred = model.predict(X_test)
# 计算预测结果的均方误差
mse = np.mean((y_pred - y_test) ** 2)
print(f'Mean squared error: {mse:.2f}')
```
在这个例子中,我们使用了一个包含一个隐藏层的全连接神经网络模型来进行回归预测。我们首先加载数据集,并将其分为特征和目标变量。然后,我们使用 `train_test_split` 函数将数据集划分为训练集和测试集。
接下来,我们创建了一个包含一个具有 10 个神经元的隐藏层和一个具有一个神经元的输出层的神经网络模型。我们使用 `relu` 激活函数作为隐藏层的激活函数,使用 `linear` 激活函数作为输出层的激活函数。
我们使用 `mean_squared_error` 作为损失函数,使用 `adam` 优化器来训练模型。我们在训练集上训练了模型,并在测试集上进行了预测。最后,我们计算了预测结果的均方误差,并将其打印出来。
阅读全文