在sklearn中如何使用K最近邻算法
时间: 2024-09-25 09:04:07 浏览: 27
在Scikit-Learn(sklearn)库中,K近邻(K-Nearest Neighbors,KNN)算法是一个非常基础但实用的机器学习分类和回归方法。以下是使用KNN的基本步骤:
1. 导入库和数据集:
```python
from sklearn.neighbors import KNeighborsClassifier (分类) 或 KNeighborsRegressor (回归)
import pandas as pd
# 加载数据集,假设数据存储在一个CSV文件中
data = pd.read_csv('your_dataset.csv')
X = data.drop('target_column', axis=1) # 特征变量
y = data['target_column'] # 目标变量
```
2. 初始化模型并训练:
```python
knn_model = KNeighborsClassifier(n_neighbors=5) # 设置邻居数量,默认值一般为5
knn_model.fit(X, y)
```
或者对于回归任务:
```python
knn_model = KNeighborsRegressor()
knn_model.fit(X, y)
```
3. 预测新数据点:
```python
new_data = [[some_features]] # 新的数据点特征
prediction = knn_model.predict(new_data)
```
4. 评估性能:
```python
from sklearn.metrics import accuracy_score (分类) 或 mean_squared_error (回归)
accuracy = accuracy_score(y_test, predictions) # 对于分类任务
mse = mean_squared_error(y_test, predicted_values) # 对于回归任务
```
阅读全文