k近邻算法python代码
时间: 2023-08-18 22:06:09 浏览: 72
以下是k近邻算法的Python代码实现:
```python
import numpy as np
from collections import Counter
def knn(X_train, y_train, X_test, k):
"""
:param X_train: 训练集特征
:param y_train: 训练集标签
:param X_test: 测试集特征
:param k: k值
:return: 预测结果
"""
# 计算测试数据与每个训练数据之间的距离
distances = np.sqrt(np.sum(np.square(X_test - X_train), axis=1))
# 对距离进行排序
sorted_distance_indices = np.argsort(distances)
# 统计距离最近的k个训练数据的标签
k_nearest_labels = [y_train[i] for i in sorted_distance_indices[:k]]
# 返回出现次数最多的标签作为预测结果
return Counter(k_nearest_labels).most_common(1)[0][0]
```
其中,X_train是训练集特征,y_train是训练集标签,X_test是测试集特征,k是k值。函数返回预测结果。
相关问题
k近邻算法Python实现
k近邻算法(k-Nearest Neighbor,k-NN)是一种基本的分类和回归方法,它的思路是:如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别。
以下是一个简单的k近邻算法Python实现:
```python
import numpy as np
from collections import Counter
def knn(X_train, y_train, x, k):
distances = [np.sqrt(np.sum((x - x_train) ** 2)) for x_train in X_train]
nearest = np.argsort(distances)
top_k = [y_train[i] for i in nearest[:k]]
votes = Counter(top_k)
return votes.most_common(1)
# 示例
X_train = np.array([[1, 2], [1, 4], [2, 1], [4, 2], [4, 4]])
y_train = ['A', 'A', 'B', 'B', 'B']
x = np.array([3, 2.5])
print(knn(X_train, y_train, x, k=3))
```
在上述代码中,`X_train`是训练集数据,`y_train`是训练集标签,`x`是待分类的数据点,`k`表示选取的最近邻个数。
函数首先计算待分类数据点与训练集中所有数据点的距离,并将距离从小到大排序。然后选择距离最小的前k个数据点,并统计它们所属的类别。最后返回出现次数最多的类别作为预测结果。
k近邻回归算法python代码
以下是使用sklearn库实现k近邻回归算法的Python代码:
```python
from sklearn.neighbors import KNeighborsRegressor
# 创建k近邻回归模型,k取5
knn = KNeighborsRegressor(n_neighbors=5)
# 训练模型
knn.fit(X_train, y_train)
# 使用模型进行预测
y_pred = knn.predict(X_test)
```
其中,`X_train`和`y_train`分别是训练数据的特征和标签,`X_test`是测试数据的特征,`y_pred`是模型预测的标签。你需要根据实际情况替换这些变量。如果需要调整k值,可以通过修改`n_neighbors`参数来实现。
阅读全文