子空间聚类的常见评估指标及pytorch实现

子空间聚类的常见评估指标:ACC, SRE 和 CONN

本文参考了本组的论文S3C-OMP的附录,代码部分摘自本组的SENet, 未引用这两篇论文的转载是不被允许的

引言

在评估聚类效果的时候,常常使用NMI和ARI,即归一化互信息和调整兰德指数,但这两个指标是以结果为导向的,无论采用了何种聚类方式。 但NMI和ARI只能告诉你聚类结果好不好,却无法知道你的聚类方法是否在有效工作。

在目前最流行的子空间聚类方法中,我们是通过构造coeff矩阵C来得到affinty A,之后通过谱聚类(spectral clustering)得到partition Q。子空间聚类已被证明和self-attention机制是密切相关的,因此是高效的,但也具有和self-attention一样的平方复杂度缺陷。

要了解子空间聚类是否真的在有效工作,就要评估系数矩阵C,这便是SRE和CONN这两个指标。,如接下来所介绍的那样。

Evaluation Metrics

聚类准确度(Clustering accuracy, ACC)

相比于有标签的准确度,聚类准确度的计算更加麻烦些,它是依据ground truth和分割矩阵Q来计算的。在实践中,ACC的好坏与否与ARI指标高度相关。如果ACC不理想,想办法提高ARI先!

acc指标表示了预测结果和ground truth之间的差距:

子空间聚类的常见评估指标及pytorch实现
其中,有个100倍的系数是因为输出是百分比值,est即为estimation的缩写,true就是ground truth。当第j个点属于第i个cluster时,这两个Q在第( i , j ) (i,j)(i ,j )个元素为1,否则为0,也就是说Q的每行都是one-hot的。需要注意,其中π \pi π表示n个cluster的组合,因为聚类得到的是伪标签,必须用如匈牙利算法把伪标签和ground truth最大匹配起来。

; 子空间保持误差 (SRE)

SRE有两种写法:Subspace Recovery Error和 Subspace-preserving Representation Error,但其实都表示一个意思,就是 衡量了C的子空间保持性质,SRE越低说明了误差越小,连通的分量c i j c_{ij}c i j ​大都来自相同的子空间。
具体地,对于每个c j c_j c j ​,我们计算它的来自其他子空间的ℓ 1 \ell_1 ℓ1 ​范数的分数,对所有j j j做求和平均:

子空间聚类的常见评估指标及pytorch实现
其中w i j ∈ { 0 , 1 } w_{ij}\in {0,1}w i j ​∈{0 ,1 }为true affinity。

给出SRE的pytorch实现:

def subspace_preserving_error(A, labels, n_clusters):
    one_hot_labels = torch.zeros([A.shape[0], n_clusters])
    for i in range(A.shape[0]):
        one_hot_labels[i][labels[i]] = 1.0
    mask = one_hot_labels.matmul(one_hot_labels.T)
    l1_norm = torch.norm(A, p=1, dim=1)
    masked_l1_norm = torch.norm(mask * A, p=1, dim=1)
    e = torch.mean((1. - masked_l1_norm / l1_norm)) * 100.

    return e

连通性 (Connectivity, CONN)

connectivity衡量了C的连通性。我们希望低的SRE,但是过低的SRE往往会让C过于稀疏而在谱聚类时产生过分割最终影响聚类结果,因此我们希望连通性要高点好: CONN度量了同一个cluster中C的稠密程度,即我们希望同一类中的尽量不要出现c i j = 0 c_{ij}=0 c i j ​=0 。

所以,显然SRE和CONN是一对矛盾的指标,CONN提高往往导致SRE变差,SRE降低往往导致CONN下降。 子空间聚类方法好不好还要考虑到它能不能有效权衡SRE和CONN。实验也证明,只有CONN和SRE取得一个合理的balance的时候聚类精度才上得去。

不过,CONN的计算比较反直觉,这里介绍 代数连通性(algebratic connectivity),它的定义是: 归一化后的图拉普拉斯矩阵的第二小的特征值。对于一个无向权重图,权重为W ∈ R N × N W\in\mathbb R^{N\times N}W ∈R N ×N和度矩阵D = d i a g ( W ⋅ 1 ) D=diag(W\cdot 1)D =d i a g (W ⋅1 ),那么它的归一化图拉普拉斯为:

子空间聚类的常见评估指标及pytorch实现
取L L L的第二个eigen value λ 2 ∈ [ 0 , n − 1 n ] \lambda_2 \in [0,\frac{n-1}{n}]λ2 ​∈[0 ,n n −1 ​]。为了评估具有n个cluster的affinity gpraph的连通性,我们计算每个n个子图的第二最小特征值,那么就得到了n个对应于第i i i个cluster的特征值{ λ 2 ( i ) } i = 1 n {\lambda_2^{(i)}}_{i=1}^n {λ2 (i )​}i =1 n ​。对于CONN有两种计算方法:取最小值或求平均值:
子空间聚类的常见评估指标及pytorch实现
取最小值的话,实际中conn容易很小,比如1 0 − 16 10^{-16}1 0 −1 6量级,这个时候考虑取平均值:

子空间聚类的常见评估指标及pytorch实现

小技巧:合成数据集上用最小值,真实数据集上用平均值

给出归一化图拉普拉斯的实现:

def normalized_laplacian(A):
    D = torch.sum(A, dim=1)
    D_sqrt = torch.diag(1.0 / torch.sqrt(D))
    L = torch.eye(A.shape[0]) - D_sqrt.matmul(A).matmul(D_sqrt)
    return L

CONN的pytorch实现:

def connectivity(A, labels, n_clusters):
    c = []
    for i in range(n_clusters):
        A_i = A[labels == i][:, labels == i]
        L_i = normalized_laplacian(A_i)
        eig_vals, _ = torch.symeig(L_i)
        c.append(eig_vals[1])
    return np.min(c)

def sparse_connectivity(A, labels, n_clusters):
    c = []
    for i in range(n_clusters):
        A_i = A[labels == i][:, labels == i]
        L_i = csgraph.laplacian(A_i)
        eig_vals, _ = sparse.linalg.eigsh(L_i, k=2, which='SA')
        eig_vals = sorted(eig_vals)
        c.append(eig_vals[1])
    return np.mean(c)

Original: https://blog.csdn.net/weixin_44876302/article/details/121500112
Author: 塔_Tass
Title: 子空间聚类的常见评估指标及pytorch实现

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/550806/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球