import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.datasets import load_digits data, labels = load_digits(return_X_y=True) (n_samples, n_features), n_digits = data.shape, np.unique(labels).size print(f"# 类别数: {n_digits}; # 样本数: {n_samples}; # 特征数: {n_features}") print(data[:2]) from time import time from sklearn.pipeline import make_pipeline from sklearn.preprocessing import StandardScaler from sklearn.cluster import KMeans kmeans=KMeans(n_clusters=10, random_state=42) ### 创建管道并训练,记录训练时间 t0 = time() estimator = make_pipeline(StandardScaler(), kmeans).fit(data) fit_time = time() - t0 print("训练时间:", fit_time) ### 通过惯性(inertia)聚类的性能 print(estimator) print(estimator[-1].inertia_) result1={"fit-time":fit_time,"inertia:":estimator[-1].inertia_ } from sklearn.decomposition import PCA ### ??编程使用PCA分解,得到10个主成分,放到变量 components 中--------------------------- pca = PCA(n_components=10) components = pca.fit_transform(data) ###------------------------------------------------------------------------- ### 创建KMeas对象 kmeans=KMeans(n_clusters=10, init="k-means++", random_state=42) ### 创建管道并训练,记录训练时间 t0 = time() estimator = make_pipeline(StandardScaler(), kmeans).fit(data) fit_time = time() - t0 print("训练时间:", fit_time) ### 通过惯性(inertia)聚类的性能 print(estimator) print(estimator[-1].inertia_) result2={"fit-time":fit_time,"inertia:":estimator[-1].inertia_ } from sklearn.decomposition import PCA ### ??编程 选择保持 98%的信息的PCA模型,用名为pca的变量表示 ---------- pca = PCA(n_components=0.98) ###------------------------------------------------------------------- ###创建KMeas对象 kmeans=KMeans(n_clusters=10, random_state=42) ###??编程 创建一个 标准化+PCA降维+KMeas聚类的管道并训练,记录训练时间 t0 = time() estimator = make_pipeline(StandardScaler(), pca, kmeans).fit(data) ##增加pca预处理 fit_time = time() - t0 print("训练时间:", fit_time) ### 通过惯性(inertia)聚类的性能 print(estimator) print(estimator[-1].inertia_) result3={"fit-time":fit_time,"inertia:":estimator[-1].inertia_ }可以选择不同的KMeans的参数对digits进行聚类,比较实验结果,并选择一个针对此问题的最好模型
时间: 2023-08-15 13:11:16 浏览: 109
这份代码是用数字数据集(load_digits)进行 KMeans 聚类和 PCA 降维后再聚类的实验,可以通过调整 KMeans 的参数来比较不同实验结果,最终选择最好的模型。
第一部分是载入数据集并展示基本信息:
```python
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
from sklearn.datasets import load_digits
data, labels = load_digits(return_X_y=True)
(n_samples, n_features), n_digits = data.shape, np.unique(labels).size
print(f"# 类别数: {n_digits}; # 样本数: {n_samples}; # 特征数: {n_features}")
print(data[:2])
```
第二部分是使用 KMeans 进行聚类,并计算惯性(inertia):
```python
from time import time
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.cluster import KMeans
kmeans=KMeans(n_clusters=10, random_state=42)
### 创建管道并训练,记录训练时间
t0 = time()
estimator = make_pipeline(StandardScaler(), kmeans).fit(data)
fit_time = time() - t0
print("训练时间:", fit_time)
### 通过惯性(inertia)聚类的性能
print(estimator)
print(estimator[-1].inertia_)
result1={"fit-time":fit_time,"inertia:":estimator[-1].inertia_}
```
第三部分是使用 PCA 进行降维,并使用 KMeans 进行聚类:
```python
from sklearn.decomposition import PCA
### 编程使用PCA分解,得到10个主成分,放到变量 components 中
pca = PCA(n_components=10)
components = pca.fit_transform(data)
### 创建KMeas对象
kmeans=KMeans(n_clusters=10, init="k-means++", random_state=42)
### 创建管道并训练,记录训练时间
t0 = time()
estimator = make_pipeline(StandardScaler(), kmeans).fit(data)
fit_time = time() - t0
print("训练时间:", fit_time)
### 通过惯性(inertia)聚类的性能
print(estimator)
print(estimator[-1].inertia_)
result2={"fit-time":fit_time,"inertia:":estimator[-1].inertia_}
```
第四部分是选择保持 98% 信息的 PCA 模型,并使用 KMeans 进行聚类:
```python
from sklearn.decomposition import PCA
### 编程选择保持 98%的信息的PCA模型,用名为pca的变量表示
pca = PCA(n_components=0.98)
### 创建KMeas对象
kmeans=KMeans(n_clusters=10, random_state=42)
### 编程创建一个 标准化+PCA降维+KMeas聚类的管道并训练,记录训练时间
t0 = time()
estimator = make_pipeline(StandardScaler(), pca, kmeans).fit(data)
fit_time = time() - t0
print("训练时间:", fit_time)
### 通过惯性(inertia)聚类的性能
print(estimator)
print(estimator[-1].inertia_)
result3={"fit-time":fit_time,"inertia:":estimator[-1].inertia_}
```
最后,可以通过比较不同实验结果,选择最好的模型。
阅读全文