Kmeans算法、最佳聚类数的确定及散点图
Kmeans算法、最佳聚类数的确定及散点图 ①使用手肘法、轮廓系数法及CH值三种指标来衡量最佳聚类数目 ②使用K-means进行聚类,得出可视化聚类的结果 ③同时得出聚类结果展示(Excel文件) Python代码,备注清晰,替换成自己的数据即可。
最近在做数据聚类分析的项目,用到了Kmeans算法,还研究了如何确定最佳聚类数,最后生成了可视化的散点图,感觉挺有意思的,来和大家分享一下😃
一、最佳聚类数的确定方法
手肘法
手肘法是一种很直观的确定最佳聚类数的方法。简单来说,就是计算不同聚类数下的聚类误差平方和(SSE),然后绘制SSE随聚类数变化的曲线。当曲线出现明显的拐点时,这个拐点对应的聚类数就是比较合适的最佳聚类数。
用Python实现手肘法的代码如下:
import numpy as np import pandas as pd import matplotlib.pyplot as plt from sklearn.cluster import KMeans # 假设我们有一个数据集data data = pd.read_csv('your_data.csv') sse = [] for k in range(1, 11): kmeans = KMeans(n_clusters=k, init='k-means++', max_iter=300, n_init=10, random_state=0) kmeans.fit(data) sse.append(kmeans.inertia_) plt.plot(range(1, 11), sse) plt.title('Elbow Method') plt.xlabel('Number of clusters') plt.ylabel('SSE') plt.show()代码分析:
- 首先导入需要的库,包括numpy、pandas、matplotlib.pyplot和sklearn.cluster中的KMeans。
- 读取数据集。这里假设数据集是一个CSV文件,你需要把文件名替换成自己的。
- 然后通过循环计算不同聚类数(从1到10)下的SSE。每次创建一个KMeans对象,设置好参数后进行拟合,将每次的inertia_(即SSE)添加到sse列表中。
- 最后绘制SSE随聚类数变化的曲线,通过观察曲线的拐点来初步确定最佳聚类数。
轮廓系数法
轮廓系数法综合考虑了样本点到同簇其他样本的平均距离(a)和到最近簇中样本的平均距离(b)。轮廓系数越接近1,表示聚类效果越好。
from sklearn.metrics import silhouette_score silhouette_scores = [] for k in range(2, 11): kmeans = KMeans(n_clusters=k, init='k-means++', max_iter=300, n_init=10, random_state=0) kmeans.fit(data) labels = kmeans.labels_ silhouette_scores.append(silhouette_score(data, labels)) plt.plot(range(2, 11), silhouette_scores) plt.title('Silhouette Method') plt.xlabel('Number of clusters') plt.ylabel('Silhouette Score') plt.show()代码分析:
- 同样先导入必要的库,这里多了sklearn.metrics中的silhouette_score。
- 循环计算不同聚类数(从2到10)下的轮廓系数。每次拟合模型后获取预测的标签,然后计算轮廓系数并添加到silhouette_scores列表中。
- 绘制轮廓系数随聚类数变化的曲线,根据曲线峰值来确定最佳聚类数。
CH值
CH值是Calinski-Harabasz Index的缩写,它衡量了聚类的紧密程度和分离程度。CH值越大,聚类效果越好。
from sklearn.metrics import calinski_harabasz_score ch_scores = [] for k in range(2, 11): kmeans = KMeans(n_clusters=k, init='k-means++', max_iter=300, n_init=10, random_state=0) kmeans.fit(data) labels = kmeans.labels_ ch_scores.append(calinski_harabasz_score(data, labels)) plt.plot(range(2, 11), ch_scores) plt.title('Calinski-Harabasz Method') plt.xlabel('Number of clusters') plt.ylabel('CH Score') plt.show()代码分析:
- 导入sklearn.metrics中的calinskiharabaszscore。
- 循环计算不同聚类数(从2到10)下的CH值。过程和前面类似,拟合模型获取标签后计算CH值并添加到ch_scores列表中。
- 绘制CH值随聚类数变化的曲线,从曲线中找到最佳聚类数。
二、K-means聚类及可视化结果
根据上述方法确定最佳聚类数后,就可以使用K-means进行聚类了。
optimal_k = 3 # 假设最佳聚类数是3,你需要根据前面的分析结果替换 kmeans = KMeans(n_clusters=optimal_k, init='k-means++', max_iter=300, n_init=10, random_state=0) kmeans.fit(data) labels = kmeans.labels_ data['Cluster'] = labels # 保存聚类结果到Excel文件 data.to_excel('cluster_results.xlsx', index=False) # 绘制散点图 plt.scatter(data.iloc[:, 0], data.iloc[:, 1], c=data['Cluster']) plt.title('Kmeans Clustering Results') plt.xlabel('Feature 1') plt.ylabel('Feature 2') plt.show()代码分析:
- 首先设置最佳聚类数optimal_k,这里假设是3,你要根据前面的分析结果进行替换。
- 创建KMeans对象并进行拟合,获取聚类标签。
- 将聚类标签添加到原始数据集中,并保存为Excel文件。
- 最后绘制散点图,用不同颜色表示不同的聚类,直观展示聚类结果。
通过上述步骤,我们就完成了使用Kmeans算法进行聚类分析,并确定了最佳聚类数,同时生成了可视化的散点图和聚类结果展示文件😎。希望这篇分享对大家在数据聚类方面有所帮助!
以上就是本次关于Kmeans算法相关内容的全部啦,欢迎大家一起交流讨论🧐。
Kmeans算法、最佳聚类数的确定及散点图 ①使用手肘法、轮廓系数法及CH值三种指标来衡量最佳聚类数目 ②使用K-means进行聚类,得出可视化聚类的结果 ③同时得出聚类结果展示(Excel文件) Python代码,备注清晰,替换成自己的数据即可。
你可以根据自己的实际数据和需求,对代码进行调整和优化。如果在运行过程中遇到问题,也可以参考代码分析部分来排查原因哦😃。
这样一篇关于Kmeans算法及相关内容的博文就完成啦,是不是很简单易懂😜?希望能给你一些启发,下次再遇到类似的数据分析任务就更得心应手啦💪!
你觉得这篇博文怎么样呀🧐?有什么问题或者建议都可以随时告诉我哦😃。
#Kmeans算法 #最佳聚类数 #散点图 #数据分析
