使用梯度下降法优化线性回归模型参数并实现波士顿房价的预测
时间: 2023-11-14 15:10:15 浏览: 98
好的,我们来一步一步实现使用梯度下降法优化线性回归模型参数并实现波士顿房价的预测。
首先,我们需要导入必要的库。在这个实例中,我们将使用 NumPy 和 Pandas 库。
```python
import numpy as np
import pandas as pd
```
接着,我们需要加载数据集。这里我们使用 Scikit-learn 库内置的波士顿房价数据集。
```python
from sklearn.datasets import load_boston
boston = load_boston()
X = boston.data
y = boston.target
```
数据集中的 X 是一个包含了 13 个特征的矩阵,而 y 则是一个包含 506 个样本的向量。
接下来,我们需要对数据进行预处理,包括对特征进行标准化处理和添加偏置项。
```python
# 标准化处理
from sklearn.preprocessing import StandardScaler
scaler = StandardScaler()
X = scaler.fit_transform(X)
# 添加偏置项
X = np.concatenate([np.ones((X.shape[0], 1)), X], axis=1)
```
现在我们已经完成了数据预处理的步骤,接下来我们需要定义代价函数并使用梯度下降法来最小化代价函数。
```python
# 定义代价函数
def cost_function(X, y, theta):
m = len(y)
J = np.sum((X @ theta - y) ** 2) / (2 * m)
return J
# 定义梯度下降函数
def gradient_descent(X, y, theta, alpha, num_iters):
m = len(y)
J_history = np.zeros(num_iters)
for i in range(num_iters):
theta = theta - alpha * (X.T @ (X @ theta - y)) / m
J_history[i] = cost_function(X, y, theta)
return theta, J_history
```
在定义代价函数和梯度下降函数之后,我们需要初始化模型参数并调用梯度下降函数进行训练。
```python
# 初始化模型参数
theta = np.zeros(X.shape[1])
# 训练模型
alpha = 0.01
num_iters = 1000
theta, J_history = gradient_descent(X, y, theta, alpha, num_iters)
```
训练完成后,我们可以使用训练好的模型来预测新的房价。
```python
# 预测房价
X_new = np.array([0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.0, 1.1, 1.2, 1.3])
X_new = (X_new - scaler.mean_) / scaler.scale_
X_new = np.concatenate([np.array([1]), X_new])
y_new = X_new @ theta
print(f"Predicted house price: ${y_new:.2f}")
```
以上就是使用梯度下降法优化线性回归模型参数并实现波士顿房价的预测的完整代码。
阅读全文