Scikit Learn 简明教程
Scikit Learn - Clustering Methods
在这里,我们将研究 Sklearn 中的聚类方法,这将有助于识别数据样本中的相似性。
聚类方法是最有用的无监督 ML 方法之一,用于查找数据样本之间的相似性和关系模式。找到后,它们将根据特征将这些样本聚类到相似组中。聚类确定了现有未标记数据中的固有分组,这就是它很重要的原因。
Scikit-learn 库有 sklearn.cluster ,可以对未标记数据执行聚类。该模块下,scikit-leran 具有以下聚类方法:
KMeans
该算法计算质心并进行迭代,直到找到最优质心。它需要指定聚类数,这就是它假定聚类数已知的原因。该算法的主要逻辑是根据最小化标准(称为惯性)将数据聚类到 n 个相等方差组中,从而将样本分隔开。算法识别的聚类数由“K”表示。
Scikit-learn 有模块 sklearn.cluster.KMeans 来执行 K 均值聚类。在计算聚类中心和惯性值时,名为 sample_weight 的参数允许模块 sklearn.cluster.KMeans 将更多权重分配给某些样本。
Affinity Propagation
此算法基于“信息传递”的概念,在样本的不同对之间传递信息,直到收敛。它不要求在运行算法之前指定聚类数。该算法具有 O(N2T) 量级的复杂度,这是它最大的缺点。
Scikit-learn 有模块 sklearn.cluster.AffinityPropagation 来执行 Affinity Propagation 聚类。
Mean Shift
此算法主要发现样本平滑密度中的 blobs 。它通过将点移向数据点的最高密度,迭代地将数据点分配给聚类。它不依赖于参数 bandwidth 来指定搜索区域的大小,而是自动设置聚类数。
Scikit-learn 有模块 sklearn.cluster.MeanShift 来执行均值偏移聚类。
Spectral Clustering
在聚类之前,此算法基本上使用特征值,即数据的相似性矩阵频谱,在更少维度上执行降维。当聚类数很多时,不建议使用此算法。
Scikit-learn 有模块 sklearn.cluster.SpectralClustering 来执行谱聚类。
Hierarchical Clustering
此算法通过连续合并或拆分聚类来构建嵌套聚类。此聚类层次结构表示为树状图,即树。它分为以下两类:
Agglomerative hierarchical algorithms - 在这种分层算法中,每个数据点都被视为单个聚类。然后,它连续聚合成对聚类。这使用了自下而上的方法。
Divisive hierarchical algorithms - 在此分层算法中,所有数据点都被视为一大堆聚类。在此聚类过程中,使用自上而下的方法,将一大堆聚类分成各种小聚类。
Scikit-learn 有 sklearn.cluster.AgglomerativeClustering 模块,可用于执行凝聚层次聚类。
DBSCAN
它代表 “Density-based spatial clustering of applications with noise” 。此算法基于“聚类”和“噪音”的直观概念,其中聚类是数据空间中较低密度的密集区域,由较低密度的数据点区域分隔。
Scikit-learn 有 sklearn.cluster.DBSCAN 模块,可用于执行 DBSCAN 聚类。此算法使用两个重要参数,即 min_samples 和 eps,以定义密集。
参数 min_samples 值越大或参数 eps 值越小,将表明形成聚类所需的较高密度数据点。
OPTICS
它代表 “Ordering points to identify the clustering structure” 。此算法还会在空间数据中找到基于密度的聚类。其基本工作逻辑类似于 DBSCAN。
它通过以下方式解决 DBSCAN 算法的一个主要弱点——在密度不一致的数据中检测有意义的聚类问题:以空间上最接近的点成为排序中的邻居的方式来对数据库的点进行排序。
Scikit-learn 有 sklearn.cluster.OPTICS 模块,可用于执行 OPTICS 聚类。
BIRCH
它代表使用层次结构进行平衡迭代减少和聚类。用于对大型数据集执行层次聚类。它为给定数据构建一个名为 CFT (即 Characteristics Feature Tree )的树。
CFT 的优点在于,称为 CF(特征特性)节点的数据节点包含聚类所需的必要信息,从而进一步避免了在内存中保存整个输入数据的需要。
Scikit-learn 有 sklearn.cluster.Birch 模块,可用于执行 BIRCH 聚类。
Comparing Clustering Algorithms
下表将对 scikit-learn 中的聚类算法进行比较(基于参数、可伸缩性和度量)。
Sr.No |
Algorithm Name |
Parameters |
Scalability |
Metric Used |
1 |
K-Means |
No. of clusters |
Very large n_samples |
The distance between points. |
2 |
Affinity Propagation |
Damping |
它不适用于 n_samples。 |
Graph Distance |
3 |
Mean-Shift |
Bandwidth |
它不适用于 n_samples。 |
The distance between points. |
4 |
Spectral Clustering |
No.of clusters |
对于 n_samples 具有中等可伸缩性。对于 n_clusters 具有小级别可伸缩性。 |
Graph Distance |
5 |
Hierarchical Clustering |
距离阈值或聚类数 |
Large n_samples Large n_clusters |
The distance between points. |
6 |
DBSCAN |
Size of neighborhood |
极大数量级的 n_samples 和中等数量级的 n_clusters。 |
Nearest point distance |
7 |
OPTICS |
Minimum cluster membership |
极大数量级的 n_samples 和大量级的 n_clusters。 |
The distance between points. |
8 |
BIRCH |
Threshold, Branching factor |
Large n_samples Large n_clusters |
点之间的欧几里德距离。 |
K-Means Clustering on Scikit-learn Digit dataset
在此示例中,我们将对 digits 数据集应用 K-means 聚类。此算法将识别类似数字,而无需使用原始的标签信息。实现是在 Jupyter notebook 上完成的。
%matplotlib inline
import matplotlib.pyplot as plt
import seaborn as sns; sns.set()
import numpy as np
from sklearn.cluster import KMeans
from sklearn.datasets import load_digits
digits = load_digits()
digits.data.shape
Example
现在,执行 K-Means 聚类,如下所示:−
kmeans = KMeans(n_clusters = 10, random_state = 0)
clusters = kmeans.fit_predict(digits.data)
kmeans.cluster_centers_.shape
Example
fig, ax = plt.subplots(2, 5, figsize = (8, 3))
centers = kmeans.cluster_centers_.reshape(10, 8, 8)
for axi, center in zip(ax.flat, centers):
axi.set(xticks = [], yticks = [])
axi.imshow(center, interpolation = 'nearest', cmap = plt.cm.binary)
Output
以下输出包含图片,显示了 K-Means 聚类学习到的聚类中心。
接下来,下面的 Python 脚本将学习到的聚类标签(通过 K-Means)与其中找到的真实标签匹配 −
from scipy.stats import mode
labels = np.zeros_like(clusters)
for i in range(10):
mask = (clusters == i)
labels[mask] = mode(digits.target[mask])[0]
我们还可以借助下面提到的命令检查准确性。
from sklearn.metrics import accuracy_score
accuracy_score(digits.target, labels)
Complete Implementation Example
%matplotlib inline
import matplotlib.pyplot as plt
import seaborn as sns; sns.set()
import numpy as np
from sklearn.cluster import KMeans
from sklearn.datasets import load_digits
digits = load_digits()
digits.data.shape
kmeans = KMeans(n_clusters = 10, random_state = 0)
clusters = kmeans.fit_predict(digits.data)
kmeans.cluster_centers_.shape
fig, ax = plt.subplots(2, 5, figsize = (8, 3))
centers = kmeans.cluster_centers_.reshape(10, 8, 8)
for axi, center in zip(ax.flat, centers):
axi.set(xticks=[], yticks = [])
axi.imshow(center, interpolation = 'nearest', cmap = plt.cm.binary)
from scipy.stats import mode
labels = np.zeros_like(clusters)
for i in range(10):
mask = (clusters == i)
labels[mask] = mode(digits.target[mask])[0]
from sklearn.metrics import accuracy_score
accuracy_score(digits.target, labels)