写一个lr+lightgbm的二分类模型
时间: 2023-08-10 09:05:41 浏览: 81
以下是一个使用 Python 和 scikit-learn 库实现的简单的 lr+lightgbm 二分类模型:
```python
import numpy as np
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.linear_model import LogisticRegression
import lightgbm as lgb
# 导入数据
data = pd.read_csv('data.csv')
# 分离特征和标签
X = data.drop('label', axis=1)
y = data['label']
# 划分训练集和测试集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 训练逻辑回归模型
lr = LogisticRegression()
lr.fit(X_train, y_train)
# 得到逻辑回归模型的预测概率作为 LightGBM 模型的输入特征
X_train_leaf = lr.predict_proba(X_train)
X_test_leaf = lr.predict_proba(X_test)
# 构建 LightGBM 模型
params = {
'boosting_type': 'gbdt',
'objective': 'binary',
'metric': 'binary_logloss',
'num_leaves': 31,
'learning_rate': 0.05,
'feature_fraction': 0.9
}
train_data = lgb.Dataset(X_train_leaf, label=y_train)
test_data = lgb.Dataset(X_test_leaf, label=y_test)
lgbm = lgb.train(params, train_data, num_boost_round=100, valid_sets=[test_data])
# 评估模型
y_pred = lgbm.predict(X_test_leaf)
y_pred = np.where(y_pred > 0.5, 1, 0)
accuracy = np.mean(y_pred == y_test)
print('Accuracy:', accuracy)
```
在这个示例中,我们首先从 CSV 文件中加载数据,并将其分为特征和标签。然后,我们使用 `train_test_split` 函数将数据划分为训练集和测试集。接下来,我们使用 scikit-learn 库中的 `LogisticRegression` 类训练一个逻辑回归模型,并使用该模型的预测概率作为输入特征来训练一个 LightGBM 模型。最后,我们评估模型的准确性并输出结果。
阅读全文