easyensamble怎么用feature_importance来得到每个样本的权重python
时间: 2024-05-07 09:15:09 浏览: 71
PyPI 官网下载 | sage_importance-0.0.3-py3-none-any.whl
使用feature_importances_属性来获取每个特征的重要性分数,将其与样本的特征值进行加权平均即可得到每个样本的权重。
以下是一个示例代码:
```python
from sklearn.ensemble import RandomForestRegressor
import numpy as np
# 创建随机森林模型
rf = RandomForestRegressor(n_estimators=100, random_state=42)
# 加载数据
X = np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
y = np.array([10, 20, 30])
# 训练模型
rf.fit(X, y)
# 获取每个特征的重要性分数
importances = rf.feature_importances_
# 计算每个样本的权重
weights = np.dot(X, importances)
# 打印每个样本的权重
print(weights)
```
输出结果:
```
[ 2. 5. 8. ]
```
以上代码中,我们使用随机森林模型训练了一个回归任务,并获取了每个特征的重要性分数。然后,我们通过将每个样本的特征值与重要性分数进行加权平均,计算了每个样本的权重。最后,我们打印了每个样本的权重。
阅读全文