请基于梯度下降法对课本中表4.1数据的“房屋单价”属性建立逻辑斯蒂分类模型
时间: 2023-11-14 13:05:45 浏览: 97
逻辑斯蒂回归是一种二分类算法,可以用于预测一个二分类目标变量的概率。我们可以使用梯度下降法来训练逻辑斯蒂回归模型,以预测“房屋单价”属性是否高于或低于平均值。
首先,我们需要将数据集拆分为训练集和测试集,并进行特征缩放。接下来,我们需要定义逻辑斯蒂回归模型,并使用梯度下降法来训练模型。最后,我们可以使用测试集来评估模型的性能。
以下是一个基本的逻辑斯蒂回归模型的示例代码:
```python
import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
# 读取数据集
data = pd.read_excel('data.xlsx')
# 特征缩放
scaler = StandardScaler()
data[['面积', '房间数']] = scaler.fit_transform(data[['面积', '房间数']])
# 拆分数据集
X = data[['面积', '房间数']]
y = data['房屋单价'] > np.mean(data['房屋单价'])
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 定义模型
def sigmoid(z):
return 1 / (1 + np.exp(-z))
def predict(X, theta):
z = np.dot(X, theta)
return sigmoid(z)
def cost_function(X, y, theta):
m = len(y)
h = predict(X, theta)
J = (-1/m) * np.sum(y*np.log(h) + (1-y)*np.log(1-h))
return J
def gradient_descent(X, y, theta, alpha, iterations):
m = len(y)
J_history = np.zeros((iterations, 1))
for i in range(iterations):
h = predict(X, theta)
theta = theta - (alpha/m) * np.dot(X.T, h-y)
J_history[i] = cost_function(X, y, theta)
return (theta, J_history)
# 训练模型
theta = np.zeros((X_train.shape[1], 1))
alpha = 0.01
iterations = 1000
theta, J_history = gradient_descent(X_train, y_train, theta, alpha, iterations)
# 评估模型
y_pred = predict(X_test, theta)
y_pred = (y_pred > 0.5)
accuracy = np.mean(y_pred == y_test)
print('准确率:', accuracy)
```
在上述代码中,我们首先读取数据集,然后对“面积”和“房间数”特征进行特征缩放。接下来,我们拆分数据集,并定义逻辑斯蒂回归模型的关键函数:sigmoid函数(用于计算预测值的概率)、predict函数(用于预测目标变量)、cost_function函数(用于计算损失函数)、gradient_descent函数(用于通过梯度下降法训练模型)。
最后,我们使用训练集来训练模型,并使用测试集来评估模型的性能。在本例中,我们使用准确率作为评估指标。
阅读全文