小言_互联网的博客

全网最通俗易懂的聚类算法!嘿,来聚个类!

487人阅读  评论(0)

所谓人以类聚,物以群分。人们都喜欢跟自己性格相合,爱好相同的人在一起。

俗称:处得来!靓仔, 我很中意你啊~

A 某和 B 某青梅竹马,A 某通过 B 某认识了 C 某,发现兴趣爱好出奇一致,这三人就搞到了一起,成为了一个形影不离的小团体。这个小团体的形成,是自下而上的迭代过程。

200 个人当中,可能有 10 个小团体,这些小团体的形成可能要好几个月。

这种「找朋友」的过程,就是今天我们要讲的主题:聚类算法

聚类

聚类算法:就是把距离作为特征,通过自下而上的迭代方式(距离对比),快速地把一群样本分成几个类别的过程。

更严谨,专业一些的说法是:

将相似的对象归到同一个簇中,使得同一个簇内的数据对象的相似性尽可能大,同时不在同一个簇中的数据对象的差异性也尽可能地大。即聚类后同一类的数据尽可能聚集到一起,不同数据尽量分离。

很显然,聚类是一种无监督学习

为了防止新手看不懂,这里简单解释一下:

  • 对于有标签的数据,我们进行有监督学习,常见的分类任务就是监督学习

  • 而对于无标签的数据,我们希望发现无标签的数据中的潜在信息,这就是无监督学习

聚类是一种非常常用,且好用的算法。

举个例子:

给你 1 万张抠脚大汉的图片和 1 万张可爱萌妹的图片,这 2 万张图片是混在一起的

好了,我现在想把所有可爱萌妹的图片全部扔掉,因为我只爱抠脚大汉!

这种时候,就可以用到聚类算法

这是一个比较好理解的例子,专业一点的需求场景,比如人脸识别。

人脸识别需要大量的人脸数据,在数据准备阶段,就可以利用聚类算法,辅助标注 + 清洗数据。

这是一种常规的数据挖掘手段。

我对一些常见的聚类算法,进行了整理:

前面讲到,聚类算法是根据样本之间的相似度,将数据进行归类的。

而相似度的度量方法,可以大致分为:

  • 距离相似性度量

  • 密度相似性度量

  • 连通相似性度量

不同类型的聚类算法,采用的样本间的相似度度量方法是不同的。

聚类算法很多,一篇文章无法讲述详尽,今天带大家从最基础的 Kmeans 学起。

K-Means

K-Means 是一个非常经典的聚类算法,别看它古老,但很实用。

这么说吧,我现在做项目,一些小功能,偶尔还会用到 K-Means。

K-Means 即K-均值,定义如下:

对于给定的样本集,按照样本之间的距离大小,将样本集划分为K个簇。让簇内的点尽量紧密的连在一起,而让簇间的距离尽量的大

K-Means 聚类的步骤如下:

  1. 随机的选取K个中心点,代表K个类别;

  2. 计算N个样本点和K个中心点之间的欧氏距离;

  3. 将每个样本点划分到最近的(欧氏距离最小的)中心点类别中——迭代1;

  4. 计算每个类别中样本点的均值,得到K个均值,将K个均值作为新的中心点——迭代2;

  5. 重复步骤2、3、4;

  6. 满足收敛条件后,得到收敛后的K个中心点(中心点不再变化)。

K-Means 聚类可以用欧式距离,欧式距离很简单,二维平面就是两个点的距离公式,在多维空间里,假设两个样本为a(x1,x2,x3,x4...xn),b(y1,y2,y3,y4...yn),那么他们之间的欧式距离的计算公式是:

可以用下面的图很好地说明:

有 ABCDE 5个样本,一开始选定右边的 2 个初始中心点,K=2,大家颜色都不一样,谁都不服谁;

5 个样本分别对比跟 2 个初始中心点的距离,选距离近的傍依,这时 5 个样本分成红黑 2 群;

然后开始换老大啦,2 个初始中心点消失,重新在 2 个类分别中心的位置出现 2 个新的中心点,这 2 个新的中心点离类别里样本的距离之和必须是最小的;

新的老大出现,类别的划分也不一样啦,C 开始叛变,傍依了新老大,因为他离新老大更近一点;

新的老大消失,新新老大出现,发现划分的类别没有变化,帮派稳定,于是收敛。

用代码简单实现一下:


  
  1. import matplotlib.pyplot as plt
  2. import numpy as np
  3. from sklearn.datasets.samples_generator import make_blobs
  4. X, y_true = make_blobs(n_samples= 300, centers= 4,
  5.                         cluster_std= 0. 60, random_state= 0)
  6. plt.scatter(X[:,  0], X[:,  1], s= 50)
  7. plt.show()

生成一些随机点。

然后使用 K-Means 进行聚类。


  
  1. from sklearn.cluster  import KMeans
  2. """
  3.     KMeans(n_clusters=8, init='k-means++', n_init=10, max_iter=300,
  4.             tol=0.0001, precompute_distances='auto', verbose=0, 
  5.             random_state=None, copy_x=True, n_jobs=1, algorithm='auto')
  6.         Parameters:
  7.              n_clusters: 聚类个数
  8.              max_iter:  最大迭代数
  9.              n_init:    用不同的质心初始化值运行算法的次数
  10.              init:      初始化质心的方法
  11.              precompute_distances:预计算距离
  12.              tol:       关于收敛的参数
  13.              n_jobs:    计算的进程数
  14.              random_state: 随机种子
  15.              copy_x:是否修改原始数据
  16.              algorithm:“auto”, “full” or “elkan”
  17.                          ”full”就是我们传统的K-Means算法, 
  18.                          “elkan”elkan K-Means算法。默认的
  19.                          ”auto”则会根据数据值是否是稀疏的,来决定如何选择”full”和“elkan”,稠密的选 “elkan”,否则就是”full”
  20.         Attributes:
  21.              cluster_centers_:质心坐标
  22.              Labels_: 每个点的分类 
  23.              inertia_:每个点到其簇的质心的距离之和。 
  24. """
  25. m_kmeans = KMeans(n_clusters= 4)
  26. from sklearn  import metrics
  27. def draw(m_kmeans,X,y_pred,n_clusters):
  28.     centers = m_kmeans.cluster_centers_
  29.     print(centers)
  30.     plt.scatter(X[:,  0], X[:,  1], c=y_pred, s= 50, cmap= 'viridis')
  31.      #中心点(质心)用红色标出
  32.     plt.scatter(centers[:,  0], centers[:,  1], c= 'red', s= 200, alpha= 0.5)
  33.     print( "Calinski-Harabasz score:%lf"%metrics.calinski_harabasz_score(X, y_pred) )
  34.     plt.title( "K-Means (clusters = %d)"%n_clusters,fontsize= 20)
  35.     plt.show()
  36. m_kmeans.fit(X)
  37. KMeans(algorithm= 'auto', copy_x= True, init= 'k-means++', max_iter= 300,
  38.     n_clusters= 4, n_init= 10, n_jobs= None, precompute_distances= 'auto',
  39.     random_state= None, tol= 0.0001, verbose= 0)
  40. y_pred = m_kmeans.predict(X)
  41. draw(m_kmeans,X,y_pred, 4)

聚类运行结果:

总结

K-Means 聚类是最简单、经典的聚类算法,因为聚类中心个数,即 K 是需要提前设置好的,所以能使用的场景也比较局限。

比如可以使用 K-Means 聚类算法,对一张简单的表情包图片,进行前后背景的分割,对一张文本图片,进行文字的前景提取等。

K-Means 聚类能使用的距离度量方法不仅仅是欧式距离,也可以使用曼哈顿距离、马氏距离,思想都是一样,只是使用的度量公式不同而已。

聚类算法有很多,且看我慢慢道来。

最后载送大家一本帮助我拿到BAT 等一线大厂 offer 的数据结构刷题笔记,是一位 Google 大神写的,对于算法薄弱或者需要提高的同学都十分受用(提起码:m19c):

BAT 大佬分类总结的 Leetcode 刷题模版,助你搞定 90% 的面试

更加详细的算法学习路线,包括算法、数学、编程语言、比赛等的学习方法和资料,可以看这篇内容:

我是如何成为算法工程师的,超详细的学习路线

想看我讲解其他好玩实用的聚类算法,例如 CDP 等,不妨来个三连,给我来点动力。

我是 Jack,我们下期见。

 


转载:https://blog.csdn.net/c406495762/article/details/116138720
查看评论
* 以上用户言论只代表其个人观点,不代表本网站的观点或立场