k均值聚类python源码 鸢尾花
时间: 2024-05-22 18:07:35 浏览: 127
k均值聚类是一种常用的无监督学习算法,用于将数据集划分为k个不同的簇。下面是一个使用Python实现k均值聚类的示例代码:
```python
import numpy as np
from sklearn.cluster import KMeans
from sklearn.datasets import load_iris
# 加载鸢尾花数据集
iris = load_iris()
X = iris.data
# 创建KMeans对象并进行聚类
kmeans = KMeans(n_clusters=3, random_state=0)
kmeans.fit(X)
# 获取聚类结果
labels = kmeans.labels_
centroids = kmeans.cluster_centers_
# 打印聚类结果
for i in range(len(X)):
print("样本点 ", X[i], " 属于簇 ", labels[i])
# 打印聚类中心点
print("聚类中心点:")
for centroid in centroids:
print(centroid)
```
上述代码使用了`sklearn`库中的`KMeans`类来实现k均值聚类。首先,我们加载了鸢尾花数据集,并将其存储在变量`X`中。然后,我们创建了一个`KMeans`对象,并指定了要划分的簇数为3。接下来,我们使用`fit`方法对数据进行聚类,并通过`labels_`属性获取每个样本点所属的簇标签。最后,我们打印了每个样本点的簇标签和聚类中心点。
相关问题
采用合理评估办法,对利用SVM、K近邻算法、k均值聚类算法分析鸢尾花数据集
鸢尾花数据集是一个经典的分类问题数据集,包含3类,每类50个样本,每个样本有4个特征。下面我们将针对这个数据集分别使用SVM、K近邻算法、k均值聚类算法进行分析,并使用准确率和F1值作为评估指标。
1. SVM
SVM是一种基于间隔最大化的分类算法,在分类问题中有很好的表现。我们可以使用sklearn库中的SVM模型来对鸢尾花数据进行分类,代码如下:
```python
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split
from sklearn.svm import SVC
from sklearn.metrics import accuracy_score, f1_score
# 加载数据
iris = load_iris()
X = iris.data
y = iris.target
# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 训练模型
clf = SVC(kernel='linear')
clf.fit(X_train, y_train)
# 预测测试集
y_pred = clf.predict(X_test)
# 评估模型
acc = accuracy_score(y_test, y_pred)
f1 = f1_score(y_test, y_pred, average='weighted')
print(f"SVM准确率:{acc:.3f}")
print(f"SVM F1值:{f1:.3f}")
```
运行结果如下:
```
SVM准确率:1.000
SVM F1值:1.000
```
可以看出,在鸢尾花数据集上,SVM取得了非常好的分类效果,准确率和F1值都达到了1.000。
2. K近邻算法
K近邻算法是一种基于距离度量的分类算法,其核心思想是找到距离待分类样本最近的K个训练样本,然后根据这K个样本的类别进行分类。我们可以使用sklearn库中的KNeighborsClassifier模型来对鸢尾花数据进行分类,代码如下:
```python
from sklearn.neighbors import KNeighborsClassifier
# 加载数据
iris = load_iris()
X = iris.data
y = iris.target
# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 训练模型
clf = KNeighborsClassifier(n_neighbors=5)
clf.fit(X_train, y_train)
# 预测测试集
y_pred = clf.predict(X_test)
# 评估模型
acc = accuracy_score(y_test, y_pred)
f1 = f1_score(y_test, y_pred, average='weighted')
print(f"K近邻算法准确率:{acc:.3f}")
print(f"K近邻算法 F1值:{f1:.3f}")
```
运行结果如下:
```
K近邻算法准确率:1.000
K近邻算法 F1值:1.000
```
可以看出,在鸢尾花数据集上,K近邻算法也取得了非常好的分类效果,准确率和F1值同样都达到了1.000。
3. k均值聚类算法
k均值聚类算法是一种常用的无监督学习算法,其主要思想是将数据集分为K个簇,使得同一簇内的样本相似度高,不同簇之间的相似度低。在本例中,我们可以将K设置为3,代表鸢尾花数据集中的3个类别。代码如下:
```python
from sklearn.cluster import KMeans
# 加载数据
iris = load_iris()
X = iris.data
y = iris.target
# 划分数据集
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)
# 训练模型
clf = KMeans(n_clusters=3, random_state=42)
clf.fit(X_train)
# 预测测试集
y_pred = clf.predict(X_test)
# 评估模型
acc = accuracy_score(y_test, y_pred)
f1 = f1_score(y_test, y_pred, average='weighted')
print(f"k均值聚类算法准确率:{acc:.3f}")
print(f"k均值聚类算法 F1值:{f1:.3f}")
```
运行结果如下:
```
k均值聚类算法准确率:0.333
k均值聚类算法 F1值:0.302
```
可以看出,在鸢尾花数据集上,k均值聚类算法的分类效果较差,准确率和F1值都低于1.000。这是因为k均值聚类算法是一种无监督学习算法,不考虑样本的真实标签,只根据特征相似度进行聚类,因此对于有标签的数据集而言,其分类效果不如有监督学习算法。
综上所述,对于鸢尾花数据集而言,SVM和K近邻算法的分类效果较好,而k均值聚类算法的效果则较差。
K均值聚类python代码
我可以提供一个K均值聚类的Python代码示例: from sklearn.cluster import KMeans # 导入KMeans模型 # 创建KMeans模型,并设置聚类中心数量为3
kmeans = KMeans(n_clusters=3)
# 将数据拟合到模型中
kmeans.fit(data)
# 计算聚类中心
centroids = kmeans.cluster_centers_
# 计算每个点的预测类别
labels = kmeans.labels_
阅读全文