聚类算法-KMeans

一、聚类算法的概述:

1、聚类算法:一种典型的无监督学习算法,主要用于将相似的样本自动归到一个类别中。
在聚类算法中根据样本之间的相似性,将样本划分到不同的类别中,对于不同的相似度计算方法,会得到不同的聚类结果,常用的相似度计算方法有欧式距离法

2、聚类算法与分类算法最大的区别:
聚类算法是无监督学习算法,而分类算法属于监督的学习算法。

3、API:sklearn.cluster.KMeans(n_cluster=8)

  • 参数: n_cluster:开始的聚类中心数量
  • 方法:KMeans(n_clusters=2, random_state=9).fit_predict(X),计算聚类中心并预测每个样本属于哪个类别,相当于先调用fit(X),然后再调用predict(X)。

二、创建数据集:

1、代码:

import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score

# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
                  n_features=2,
                  centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
                  cluster_std=[0.4, 0.2, 0.2, 0.2],  # 表示每对数据之间的间隔
                  random_state=9)

# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()

2、创建的数据集效果:


数据集效果.png

三、聚类操作:

1、分两类代码:n_clusters=2

import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score

# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
                  n_features=2,
                  centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
                  cluster_std=[0.4, 0.2, 0.2, 0.2],  # 表示每对数据之间的间隔
                  random_state=9)

# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()

# 2.1、聚类为 2 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=2, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=2时候预测结果:\n", calinski_harabasz_score(X, y_pre))

1.1、分两类效果:n_clusters=2,分成了两堆不同的颜色数据集

分两类效果.png

1.2、分两类的预测值:

分两类的预测值.png

2、分3类代码:n_clusters=3

import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score

# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
                  n_features=2,
                  centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
                  cluster_std=[0.4, 0.2, 0.2, 0.2],  # 表示每对数据之间的间隔
                  random_state=9)

# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()

# 2.1、聚类为 2 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=2, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=2时候预测结果:\n", calinski_harabasz_score(X, y_pre))

# 2.2、聚类为 3 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=3, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=3时候预测结果:\n", calinski_harabasz_score(X, y_pre))

2.1、分3类效果:n_clusters=3,分成了3堆不同的颜色数据集

分3类效果.png

2.2、分3类的预测值:

分3类的预测值.png

3、分两类代码:n_clusters=4

import matplotlib.pyplot as plt
from sklearn.datasets._samples_generator import make_blobs
from sklearn.cluster import KMeans
from sklearn.metrics import calinski_harabasz_score

# 1、创建数据集
# X为样本特征,Y为样本簇类别,工1000个样本,每个样本4个特征,共4簇,
# 簇中心在[-1,-1],[0,0],[1,1],[2,2],簇方差分别为[0.4, 0.2, 0].2, 0.2
X, y = make_blobs(n_samples=1000,
                  n_features=2,
                  centers=[[-1, -1], [0, 0], [1, 1], [2, 2]],
                  cluster_std=[0.4, 0.2, 0.2, 0.2],  # 表示每对数据之间的间隔
                  random_state=9)

# 数据集可视化
plt.scatter(X[:, 0], X[:, 1], marker='o')
plt.show()

# 2.1、聚类为 2 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=2, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=2时候预测结果:\n", calinski_harabasz_score(X, y_pre))

# 2.2、聚类为 3 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=3, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=3时候预测结果:\n", calinski_harabasz_score(X, y_pre))

# 2.3、聚类为 4 的时候 :使用k-means进行分类,并使用CH方法评估
y_pre = KMeans(n_clusters=4, random_state=9).fit_predict(X)
# 分别尝试n_cluster=2\3\4,然后查看聚类效果
plt.scatter(X[:, 0], X[:, 1], c=y_pre)
plt.show()

# 用Calinski-Harabasz Index品谷的聚类分数
print("n_clusters=4时候预测结果:\n", calinski_harabasz_score(X, y_pre))

3.1、分4类效果:n_clusters=4,分成了4堆不同的颜色数据集

分4类效果.png

3.2、分4类的预测值:

分4类的预测值.png

四、总结:

通过以上这个例子可以看出,这堆数据分成 4 类的时候评估效果最佳:
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
平台声明:文章内容(如有图片或视频亦包括在内)由作者上传并发布,文章内容仅代表作者本人观点,简书系信息发布平台,仅提供信息存储服务。