请写一段K-means多维聚类代码
时间: 2023-03-14 10:20:46 浏览: 62
K-means多维聚类代码的示例如下:from sklearn.cluster import KMeans
import numpy as np# 设置聚类的类别数量
k = 5# 将数据转换为Numpy数组
data = np.array([[1,2,3], [4,5,6], [7,8,9], [10,11,12]])# 创建KMeans实例
kmeans = KMeans(n_clusters=k)# 训练
kmeans.fit(data)# 获取聚类中心
centroids = kmeans.cluster_centers_# 获取每个样本所属的簇
labels = kmeans.labels_
相关问题
用python写一段k-means聚类算法代码
好的,以下是一段基于Python的K-Means聚类算法代码:
```python
import random
import numpy as np
import matplotlib.pyplot as plt
# 生成测试数据
def generate_data(n, k):
data = []
for i in range(k):
center = np.random.uniform(-10, 10, size=2)
for j in range(n):
x = np.random.normal(center[0], 1)
y = np.random.normal(center[1], 1)
data.append([x, y, i])
return np.array(data)
# 计算两点之间的距离
def distance(point1, point2):
return np.sqrt(np.sum((point1 - point2) ** 2))
# K-Means算法
def k_means(data, k, max_iter=100):
# 随机选择k个中心点
centers = data[random.sample(range(len(data)), k)][:, :-1]
for i in range(max_iter):
# 初始化每个簇的点
clusters = [[] for _ in range(k)]
# 分配每个点到最近的簇
for point in data:
distances = [distance(point[:-1], center) for center in centers]
cluster_index = np.argmin(distances)
clusters[cluster_index].append(point)
# 更新每个簇的中心点
for j in range(k):
centers[j] = np.mean(clusters[j], axis=0)[:-1]
return clusters, centers
# 绘制聚类结果
def plot_clusters(clusters, centers):
plt.figure(figsize=(8, 6))
colors = ['r', 'g', 'b', 'c', 'm', 'y', 'k']
for i in range(len(clusters)):
cluster = np.array(clusters[i])
plt.scatter(cluster[:, 0], cluster[:, 1], c=colors[i], alpha=0.5)
plt.scatter(centers[:, 0], centers[:, 1], s=100, marker='*', c='black')
plt.show()
# 测试
data = generate_data(100, 3)
clusters, centers = k_means(data, 3)
plot_clusters(clusters, centers)
```
在此代码中,我们首先生成了一些测试数据,然后使用K-Means算法将其聚类成k个簇,并绘制聚类结果。在该算法中,我们首先随机选择k个中心点,然后迭代地将每个点分配到最近的簇中,并更新每个簇的中心点。最终,我们返回每个簇的点和中心点,并绘制聚类结果。
用MATLAB写一段k-means聚类代码
以下是一段MATLAB中的k-means聚类代码:
% 生成随机数据
data = rand(100,2);
% 定义聚类数
k = 3;
% 随机选择初始聚类中心
centers = data(randperm(size(data,1),k),:);
% 迭代计算,直到聚类中心不再变化
while true
% 根据当前聚类中心计算每个数据点到各聚类中心的距离
distances = pdist2(data,centers);
% 找出每个数据点距离最近的聚类中心,确定其所属的聚类
[~, labels] = min(distances,[],2);
% 保存上一次的聚类中心
old_centers = centers;
% 计算新的聚类中心
for i = 1:k
centers(i,:) = mean(data(labels==i,:));
end
% 如果聚类中心不再变化,则停止迭代
if isequal(old_centers,centers)
break;
end
end
% 绘制聚类结果
figure;
scatter(data(:,1),data(:,2),10,labels);
hold on;
scatter(centers(:,1),centers(:,2),50,'k','filled');
legend('Cluster 1','Cluster 2','Cluster 3','Centroids');
title('K-means Clustering');