谱聚类算法基于图论,它的起源可以追溯到早期的图分割文献。
不过,直至近年来,受益于计算机计算能力的提升,谱聚类算法才得到了广泛的研究和关注。
谱聚类被广泛应用于图像分割、社交网络分析、推荐系统、文本聚类等领域。
例如,在图像分割中,谱聚类可以有效地将图像划分为背景和前景;
在社交网络分析中,它可以识别出不同的社区结构。
谱聚类的基本原理是将数据点视为图中的顶点,根据数据点之间的相似性构建图的边。
它首先计算图的拉普拉斯矩阵的特征向量,然后利用这些特征向量进行聚类。
这种方法能够捕捉到数据的非线性结构,因此在许多应用中表现优异。
所谓拉普拉斯矩阵,是一种用于表示一个图的矩阵形式。
对于给定的一个有\(n\)个顶点的图\(G\),它的拉普拉斯矩阵定义为\(L=D-A\)。
其中\(D\)为图的度矩阵,\(A\)为图的邻接矩阵。
为验证谱聚类的效果,用scikit-learn
中的样本生成器创建2个非线性结构的数据集。
from sklearn.datasets import make_moons, make_circles fig, axes = plt.subplots(nrows=1, ncols=2) fig.set_size_inches((8, 4)) X_moon, y_moon = make_moons(noise=0.05, n_samples=1000) axes[0].scatter(X_moon[:, 0], X_moon[:, 1], marker="o", c=y_moon, s=25, cmap=plt.cm.spring) X_circle, y_circle = make_circles(noise=0.05, factor=0.5, n_samples=1000) axes[1].scatter(X_circle[:, 0], X_circle[:, 1], marker="o", c=y_circle, s=25, cmap=plt.cm.winter) plt.show()
一个交错的月牙形式,一个是同心圆形式,都是很难线性分割的数据集。
首先,用默认的参数训练看看效果:
from sklearn.cluster import SpectralClustering # 定义 regs = [ SpectralClustering(n_clusters=2), SpectralClustering(n_clusters=2), ] # 训练模型 regs[0].fit(X_moon, y_moon) regs[1].fit(X_circle, y_circle) fig, axes = plt.subplots(nrows=1, ncols=2) fig.set_size_inches((8, 4)) # 绘制聚类之后的结果 axes[0].scatter( X_moon[:, 0], X_moon[:, 1], marker="o", c=regs[0].labels_, s=25, cmap=plt.cm.spring ) axes[1].scatter( X_circle[:, 0], X_circle[:, 1], marker="o", c=regs[1].labels_, s=25, cmap=plt.cm.winter ) plt.show()
从图中可以看出,聚类的效果不是很好,从颜色上看,与原始数据的类别相比差距较大。
接下来,调整下SpectralClustering
模型的affinity
参数,
这个参数的作用是定义数据点之间的相似度矩阵的计算方法。affinity
参数的可选值常用的有两个:
默认的值是 rbf
,下面我们试试nearest_neighbors
方式的聚类效果。
将上面的代码中 regs
的定义部分换成如下代码:
regs = [ SpectralClustering(n_clusters=2, affinity="nearest_neighbors"), SpectralClustering(n_clusters=2, affinity="nearest_neighbors"), ]
修改参数之后的聚类效果与原始数据就非常接近了。
简而言之,谱聚类是一个在图上进行聚类的方法,它试图找到图的最佳切割,使得同一簇内的边的权重尽可能大,而不同簇之间的边的权重尽可能小。
这种聚类算法的优势有:
它的局限性有: