题目:Robust Recovery of Subspace Structures by Low-Rank Representation
一. 前置知识
1. 子空间
2. SVD
3. 字典学习
字典学习(Dictionary Learning, KSVD)详解
4. 其他概念
Robust Recovery of Subspace Structures by Low-Rank Representation
二. 创新点
传统的子空间聚类有局限性:要求数据干净。
什么是干净?
就是没有错误。错误有三种:噪声,随机缺失,特定样本缺失(离群值):
这篇文章可以对这三种错误进行规避。
; 三. 过程
1. 准备工作
在iii.A部分,作者说明了一堆专业名词的定义。
在iii.B部分,作者科普了 子空间分割的概念。
将X X X奇异值分解为U X ∑ X V X T U_X\sum_XV_X^T U X ∑X V X T ,得到V X V X T V_XV_X^T V X V X T 。如果X X X是干净的,即X = X 0 X=X_0 X =X 0 ,那么V 0 V 0 T V_0V_0^T V 0 V 0 T 将会是一个块对角矩阵。非0的地方,就是由两个来自同一子空间的数据相乘得来的。所以,这个块对角矩阵可以判断哪些数据来源于同一个子空间。这就叫 子空间分割。
2. 过程
这篇文章的目标函数层层递进:
D是干净数据,E是分离出来的错误。这个公式假设数据来源于同一个低秩子空间。为了处理多子空间的数据,提出了如下目标函数:
公式(3)不好求解,所以在iv.B部分作者先考虑一种简单的情况,假设数据是干净的。
因为这个公式的不是唯一解,所以将秩用核范数替代:
然后作者就写了一堆东西证明用核范数替代的合理性。
现在再加上错误矩阵:
然后,用ALM方法把最优值给解出来:
关于公示中A的选取效果最好的,是将A设置为X自己,这种方法叫做自表示:
随后作者就证明了自表示对于处理三种错误的作用。
v.D部分,作者写了一些收尾工作。
首先是聚类的完整过程:得到(9)中的Z ∗ Z^*Z ∗,将其奇异值分解,得到亲和矩阵,再将亲和矩阵丢进谱聚类,例如NCut中,完成最终的聚类工作。
Original: https://blog.csdn.net/qq_42115919/article/details/123221181
Author: 随缘好不好
Title: LRR子空间聚类
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/550020/
转载文章受原作者版权保护。转载请注明原作者出处!