Inertia在聚类中是什么
时间: 2023-11-08 14:04:26 浏览: 73
Inertia是一种聚类算法中的度量指标,它衡量的是聚类结果的质量。Inertia是指所有数据点到它们所属簇中心距离的平方和,因此也被称为簇内平方和(Sum of Squared Errors, SSE)。Inertia越小,表示聚类结果越紧密,簇内相似度越高。
在K-Means聚类算法中,通常会选择Inertia最小的聚类结果作为最终的聚类结果。而在层次聚类算法中,Inertia会被用作判断聚类结果的合理性和聚类数量的选择。
相关问题
编程创建一个K=10 的KMeas对象。 创建管道并训练,记录训练时间 通过惯性(inertia)聚类的性能
好的,这里给出一个使用Python的sklearn库实现KMeans聚类的例子:
```python
from sklearn.cluster import KMeans
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import StandardScaler
import time
# 创建KMeans对象
kmeans = KMeans(n_clusters=10)
# 创建管道
pipeline = make_pipeline(StandardScaler(), kmeans)
# 训练并记录训练时间
start_time = time.time()
pipeline.fit(X) # X为数据集
end_time = time.time()
train_time = end_time - start_time
# 输出惯性(inertia)
print("Inertia:", kmeans.inertia_)
```
在上面的代码中,我们首先创建了一个KMeans对象,将聚类数设置为10。然后我们使用sklearn库中的make_pipeline函数创建了一个管道,包括数据标准化和KMeans聚类。接着我们通过调用fit方法对数据进行训练,并记录了训练时间。最后,我们输出了聚类的惯性(inertia)作为性能指标。
需要注意的是,上述代码中的X应该是一个n_samples x n_features的矩阵,其中n_samples表示样本数量,n_features表示每个样本的特征数量。如果你没有数据,可以自己生成一些数据进行测试,例如:
```python
import numpy as np
X = np.random.randn(1000, 20) # 生成1000个样本,每个样本包含20个特征
```
希望这个例子能够帮助到你。
import numpy as np import matplotlib.pyplot as plt %matplotlib inline from sklearn.datasets import load_digits data, labels = load_digits(return_X_y=True) (n_samples, n_features), n_digits = data.shape, np.unique(labels).size print(f"# 类别数: {n_digits}; # 样本数: {n_samples}; # 特征数: {n_features}") print(data[:2]) from time import time from sklearn.pipeline import make_pipeline from sklearn.preprocessing import StandardScaler from sklearn.cluster import KMeans kmeans=KMeans(n_clusters=10, random_state=42) ### 创建管道并训练,记录训练时间 t0 = time() estimator = make_pipeline(StandardScaler(), kmeans).fit(data) fit_time = time() - t0 print("训练时间:", fit_time) ### 通过惯性(inertia)聚类的性能 print(estimator) print(estimator[-1].inertia_) result1={"fit-time":fit_time,"inertia:":estimator[-1].inertia_ } from sklearn.decomposition import PCA ### ??编程使用PCA分解,得到10个主成分,放到变量 components 中--------------------------- pca = PCA(n_components=10) components = pca.fit_transform(data) ###------------------------------------------------------------------------- ### 创建KMeas对象 kmeans=KMeans(n_clusters=10, init="k-means++", random_state=42) ### 创建管道并训练,记录训练时间 t0 = time() estimator = make_pipeline(StandardScaler(), kmeans).fit(data) fit_time = time() - t0 print("训练时间:", fit_time) ### 通过惯性(inertia)聚类的性能 print(estimator) print(estimator[-1].inertia_) result2={"fit-time":fit_time,"inertia:":estimator[-1].inertia_ } from sklearn.decomposition import PCA ### ??编程 选择保持 98%的信息的PCA模型,用名为pca的变量表示 ---------- pca = PCA(n_components=0.98) ###------------------------------------------------------------------- ###创建KMeas对象 kmeans=KMeans(n_clusters=10, random_state=42) ###??编程 创建一个 标准化+PCA降维+KMeas聚类的管道并训练,记录训练时间 t0 = time() estimator = make_pipeline(StandardScaler(), pca, kmeans).fit(data) ##增加pca预处理 fit_time = time() - t0 print("训练时间:", fit_time) ### 通过惯性(inertia)聚类的性能 print(estimator) print(estimator[-1].inertia_) result3={"fit-time":fit_time,"inertia:":estimator[-1].inertia_ }可以选择不同的KMeans的参数对digits进行聚类,比较实验结果,并选择一个针对此问题的最好模型
这份代码是用数字数据集(load_digits)进行 KMeans 聚类和 PCA 降维后再聚类的实验,可以通过调整 KMeans 的参数来比较不同实验结果,最终选择最好的模型。
第一部分是载入数据集并展示基本信息:
```python
import numpy as np
import matplotlib.pyplot as plt
%matplotlib inline
from sklearn.datasets import load_digits
data, labels = load_digits(return_X_y=True)
(n_samples, n_features), n_digits = data.shape, np.unique(labels).size
print(f"# 类别数: {n_digits}; # 样本数: {n_samples}; # 特征数: {n_features}")
print(data[:2])
```
第二部分是使用 KMeans 进行聚类,并计算惯性(inertia):
```python
from time import time
from sklearn.pipeline import make_pipeline
from sklearn.preprocessing import StandardScaler
from sklearn.cluster import KMeans
kmeans=KMeans(n_clusters=10, random_state=42)
### 创建管道并训练,记录训练时间
t0 = time()
estimator = make_pipeline(StandardScaler(), kmeans).fit(data)
fit_time = time() - t0
print("训练时间:", fit_time)
### 通过惯性(inertia)聚类的性能
print(estimator)
print(estimator[-1].inertia_)
result1={"fit-time":fit_time,"inertia:":estimator[-1].inertia_}
```
第三部分是使用 PCA 进行降维,并使用 KMeans 进行聚类:
```python
from sklearn.decomposition import PCA
### 编程使用PCA分解,得到10个主成分,放到变量 components 中
pca = PCA(n_components=10)
components = pca.fit_transform(data)
### 创建KMeas对象
kmeans=KMeans(n_clusters=10, init="k-means++", random_state=42)
### 创建管道并训练,记录训练时间
t0 = time()
estimator = make_pipeline(StandardScaler(), kmeans).fit(data)
fit_time = time() - t0
print("训练时间:", fit_time)
### 通过惯性(inertia)聚类的性能
print(estimator)
print(estimator[-1].inertia_)
result2={"fit-time":fit_time,"inertia:":estimator[-1].inertia_}
```
第四部分是选择保持 98% 信息的 PCA 模型,并使用 KMeans 进行聚类:
```python
from sklearn.decomposition import PCA
### 编程选择保持 98%的信息的PCA模型,用名为pca的变量表示
pca = PCA(n_components=0.98)
### 创建KMeas对象
kmeans=KMeans(n_clusters=10, random_state=42)
### 编程创建一个 标准化+PCA降维+KMeas聚类的管道并训练,记录训练时间
t0 = time()
estimator = make_pipeline(StandardScaler(), pca, kmeans).fit(data)
fit_time = time() - t0
print("训练时间:", fit_time)
### 通过惯性(inertia)聚类的性能
print(estimator)
print(estimator[-1].inertia_)
result3={"fit-time":fit_time,"inertia:":estimator[-1].inertia_}
```
最后,可以通过比较不同实验结果,选择最好的模型。