利用sklearn中的层次聚类模块对样本数据进行聚类
时间: 2024-03-22 17:39:45 浏览: 67
使用sklearn中的层次聚类模块可以很方便地对样本数据进行聚类。下面是一个简单的示例代码:
```python
from sklearn.cluster import AgglomerativeClustering
import numpy as np
# 生成样本数据
X = np.random.rand(10, 2)
# 构建层次聚类模型
model = AgglomerativeClustering(n_clusters=2)
# 对样本数据进行聚类
labels = model.fit_predict(X)
# 输出聚类结果
print(labels)
```
在上面的代码中,首先使用numpy生成了一个10个样本的二维数据集,然后使用AgglomerativeClustering构建了一个层次聚类模型,其中n_clusters参数指定了聚类的簇数。最后使用fit_predict方法对样本数据进行聚类,得到了每个样本所属的簇标签。
相关问题
利用sklearn中的层次聚类模块对样本数据进行聚类的步骤
使用Sklearn中的层次聚类模块对样本数据进行聚类,可以按照以下步骤进行:
1. 导入所需的模块和数据集:
```python
from sklearn.cluster import AgglomerativeClustering
from sklearn.datasets import make_blobs
X, y = make_blobs(n_samples=100, centers=3, random_state=0)
```
这里使用`make_blobs`函数生成一个包含100个样本、3个聚类中心的数据集。
2. 创建聚类模型对象并进行训练:
```python
model = AgglomerativeClustering(n_clusters=3)
model.fit(X)
```
这里使用`AgglomerativeClustering`函数创建聚类模型对象,并指定聚类数为3。然后使用`fit`方法进行训练。
3. 获取聚类结果:
```python
labels = model.labels_
```
使用`labels_`属性获取聚类结果,即每个样本所属的聚类标签。
完整代码如下:
```python
from sklearn.cluster import AgglomerativeClustering
from sklearn.datasets import make_blobs
# 生成样本数据
X, y = make_blobs(n_samples=100, centers=3, random_state=0)
# 创建聚类模型并进行训练
model = AgglomerativeClustering(n_clusters=3)
model.fit(X)
# 获取聚类结果
labels = model.labels_
print(labels)
```
输出结果为:
```
[0 2 1 0 0 2 1 0 2 2 2 2 0 2 1 0 1 2 1 1 0 1 0 1 2 1 2 2 1 1 1 0 2 0 0 1 2
0 1 1 1 2 1 0 0 2 1 0 2 0 1 1 2 2 1 0 2 0 1 0 1 2 2 0 0 2 0 1 0 0 1 2 2 2
0 1 1 1 0 2 1 2 0 2 1 2 1 0 0 2 0 0 2 1 2 0 1 1 0 2 0 1 0 2 1 2 0 1 1 0 1
2 2]
```
可以看到,每个样本被分到了其中一个聚类中心。
1. 利用sklearn中的层次聚类模块对样本数据进行聚类; 2. 对比不同聚类算法的分类性能; 3. 对层次聚类模型进行性能评估。
1. 利用sklearn中的层次聚类模块对样本数据进行聚类:
可以使用AgglomerativeClustering类来实现层次聚类,该类提供了多种聚类方式(如单连接、完全连接、平均连接等)。以下是一个简单的层次聚类示例:
```python
from sklearn.cluster import AgglomerativeClustering
import numpy as np
# 构造数据
X = np.array([[1, 2], [1, 4], [1, 0],
[4, 2], [4, 4], [4, 0]])
# 定义模型
model = AgglomerativeClustering(n_clusters=2)
# 训练模型
model.fit(X)
# 打印每个样本的所属簇
print(model.labels_)
```
2. 对比不同聚类算法的分类性能:
对于不同的数据集和聚类任务,不同的聚类算法可能会有不同的表现。可以使用sklearn提供的metrics模块来评估聚类算法的分类性能,如轮廓系数、Calinski-Harabasz指数和Davies-Bouldin指数等。以下是一个简单的对比不同聚类算法性能的示例:
```python
from sklearn.datasets import make_blobs
from sklearn.cluster import KMeans, AgglomerativeClustering
from sklearn.metrics import silhouette_score, calinski_harabasz_score, davies_bouldin_score
# 构造数据
X, y = make_blobs(n_samples=1000, centers=4, random_state=2)
# 定义模型
models = [KMeans(n_clusters=4),
AgglomerativeClustering(n_clusters=4, linkage='ward'),
AgglomerativeClustering(n_clusters=4, linkage='average')]
# 训练模型并评估性能
for model in models:
y_pred = model.fit_predict(X)
silhouette = silhouette_score(X, y_pred)
calinski_harabasz = calinski_harabasz_score(X, y_pred)
davies_bouldin = davies_bouldin_score(X, y_pred)
print(f'Model: {model.__class__.__name__}, '
f'Silhouette score: {silhouette:.3f}, '
f'Calinski-Harabasz score: {calinski_harabasz:.3f}, '
f'Davies-Bouldin score: {davies_bouldin:.3f}')
```
3. 对层次聚类模型进行性能评估:
对于层次聚类,可以使用cophenetic correlation coefficient来评估聚类结果的质量。cophenetic correlation coefficient是评估层次聚类结果的一种指标,它衡量了聚类结果中样本之间的距离与原始数据中样本之间的距离的相关性。它的取值范围在[-1, 1]之间,值越接近1表示聚类结果的质量越高。以下是一个简单的对层次聚类模型进行性能评估的示例:
```python
from sklearn.cluster import AgglomerativeClustering
from scipy.cluster.hierarchy import dendrogram, cophenet
from scipy.spatial.distance import pdist
import matplotlib.pyplot as plt
import numpy as np
# 构造数据
X = np.random.rand(10, 2)
# 定义模型
model = AgglomerativeClustering(n_clusters=2)
# 训练模型
model.fit(X)
# 计算聚类结果的cophenetic correlation coefficient
Z = model.children_
c, coph_dists = cophenet(Z, pdist(X))
print(f'Cophenetic correlation coefficient: {c:.3f}')
# 绘制树状图
plt.title('Hierarchical Clustering Dendrogram')
dendrogram(Z)
plt.show()
```
在上述示例中,我们首先构造了一个随机的二维数据集X,然后使用AgglomerativeClustering进行聚类。接着,我们使用cophenet函数计算了聚类结果的cophenetic correlation coefficient,并打印输出了该指标的值。最后,我们使用dendrogram函数绘制了聚类结果的树状图。
阅读全文