[半监督学习] FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning

一些先进的半监督学习方法使用基于图像的转换增强和一致性正则化的组合策略. 在FeatMatch 中, 提出了一种新颖的基于学习特征的细化和增强方法, 该方法可产生各种复杂的转换集. 重要的是, 这些转换使用了通过聚类提取的类内和跨类原型表示中的信息. 这些转换与传统的基于图像的增强相结合, 被用作基于一致性的正则化损失的一部分.

论文地址: FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning
代码地址: https://github.com/GT-RIPL/FeatMatch
会议: ECCV 2020
任务: 分类

FeatMatch 中提出: 通过从其他图像的特征中提取的代表性原型的 soft-attention 来学习细化和增强输入图像特征. 传统的基于图像的数据增强与基于特征的数据增强对比如下图所示:

[半监督学习] FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning

; 基于特征的数据增强(Feature-Based Augmentation)

如下表所示, 基于特征的数据增强在 FeatMatch 之前还未有人提出, 更多的方法是一些基于图像的通用增强, 以及其他模型中所用到的集成方法等.

[半监督学习] FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning
基于图像的增强已被证明是一种为基于一致性的 SSL 方法, 其生成图像不同视图. 然而, 传统的基于图像的增强存在以下两个限制:
  • 在图像空间中操作, 限制了图像内对纹理或几何的可能转换.

  • 在单个实例中操作, 无法使用其他实例的知识, 无论是在同一类别的内部还是外部.

一些使用 Mixup 的算法仅部分解决了第二个限制, 因为 mixup 仅在两个实例之间运行, 如 ICT MixMatch, ReMixMatch. 另一方面, Manifold Mixup 通过在特征空间中执行 Mixup 来接近第一个限制, 但仅限于两个样本的简单凸组合.

为了同时解决这两个限制, 提出一种新方法, 可以在抽象特征空间而不是图像空间中细化和增强图像特征. 为了有效地利用其他类的知识, 通过在特征空间中执行聚类来将每个类的信息浓缩成一个原型集合. 然后通过从所有类的原型传播的信息来细化和增强图像特征.

原型选择(Prototype Selection)

在特征空间中使用 K-Means 聚类来提取 p k p_k p k ​ 个聚类作为每个类的原型集合. 但是, 这存在两个技术挑战:

  • 在 SSL 设置中, 大多数图像为未标记状态.

  • 即使所有标签都可用, 在运行K K K-Means 之前从整个数据集中提取所有图像的特征仍然计算量很大.

为了解决这些问题, 在训练循环的每次迭代中存储网络已经生成的特征 f x i f_{xi}f x i ​ 和伪标签 y ^ i \hat{y}_i y ^​i ​. K K K-Means 在每个 epoch 都进行原型提取, 最后, 特征细化和增强模块在训练循环中使用新提取的原型更新现有的原型. 基本过程如下图所示:

[半监督学习] FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning

; 特征增强(Feature Augmentation)

选择出的新的原型集合后, 通过 soft-attention 对原型集进行特征细化和增强. 增强模块如下图所示:

[半监督学习] FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning
首先通过学习函数 ϕ e \phi_e ϕe ​ 将特征 f x f_x f x ​ 和第 i i i 个原型特征 f p , i f_{p,i}f p ,i ​ 投影到嵌入空间, 分别为 e x = ϕ e ( f x ) e_x=\phi_e(f_x)e x ​=ϕe ​(f x ​) 和 e p , i = ϕ e ( f p , i ) e_{p,i}=\phi_e(f_{p,i})e p ,i ​=ϕe ​(f p ,i ​). 计算 e x e_x e x ​ 和 e p , i e_{p,i}e p ,i ​ 之间的注意力权重 w i w_i w i ​:
w i = s o f t m a x ( e x T e p , i ) (1) w_i= \mathrm{softmax}(e_x^\mathrm{T} e_{p,i}) \tag{1}w i ​=s o f t m a x (e x T ​e p ,i ​)(1 )
其中 softmax 进行标准化点积相似度操作. 然后, 特征细化和增强的信息可以表示为由注意力权重加权的原型特征之和:
f a = r e l u ( ϕ a ( [ e x , ∑ i w i e p , i ] ) ) (2) f_a=\mathrm{relu}(\phi_a([e_x,\sum_iw_ie_{p,i}])) \tag{2}f a ​=r e l u (ϕa ​([e x ​,i ∑​w i ​e p ,i ​]))(2 )
其中 ϕ a \phi_a ϕa ​ 为学习函数, [ ⋅ , ⋅ ] [·,·][⋅,⋅]是沿特征维度的串联操作. 最后, 通过剩余连接对输入图像特征 f x f_x f x ​ 进行优化:
g x = r e l u ( f x + ϕ r ( f a ) ) (3) g_x=\mathrm{relu}(f_x+\phi_r(f_a)) \tag{3}g x ​=r e l u (f x ​+ϕr ​(f a ​))(3 )
其中 g x g_x g x ​ 为细化的特征, ϕ r \phi_r ϕr ​ 为可学习的函数.

上述注意力机制可以简单地推广到 multi-head attention. 对于同一张图像, 一个 Attention 获得一个表示空间, 如果多个 Attention, 则可以获得多个不同的表示空间. 在实践中, 为了获得更好的效果, 使用 multi-head attention. 为了简单起见, 将上述特征细化和增强过程 A u g F ( ⋅ ) AugF(·)A u g F (⋅) 定义为 g x = A u g F ( f x ) g_x=AugF(f_x)g x ​=A u g F (f x ​).

损失函数(Loss Function)

通过学习基于特征的增强, 可以在特征 f x f_x f x ​ 和增强特征 g x g_x g x ​ 之间应用一致性损失. 给定一个分类器 p = C l f ( f ) p=Clf(f)p =C l f (f ), 文中发现 A u g F AugF A u g F 能够细化输入特征以获得更好的表示, 从而生成更好的伪标签. 因此, 通过 p g = C l f ( g x ) p_g=Clf(g_x)p g ​=C l f (g x ​) 计算 g x g_x g x ​ 上的伪标签 p g p_g p g ​. 基于特征的一致性损失可以计算为: L c o n = H ( p g , C l f ( f x ) ) \mathcal{L}_{con}=\mathcal{H}(p_g,Clf(f_x))L c o n ​=H (p g ​,C l f (f x ​)).

受 ReMixMatch 的启发, 生成了一个弱增强图像 x x x 及其强增强副本 x ^ \hat{x}x ^. 在经过基于特征的增强和细化的弱增强图像 x x x 上计算伪标签, 如 p g = C l f ( A u g F ( E n c ( x ) ) ) p_g=Clf(AugF(Enc(x)))p g ​=C l f (A u g F (E n c (x ))). 然后, 可以在强增强数据 x ^ \hat{x}x ^ 上计算两个一致性损失, 一个应用了 A u g F AugF A u g F, 另一个没有:
L c o n − g = H ( p g , C l f ( A u g F ( E n c ( x ^ ) ) ) ) (4) \mathcal{L}{con-g}=\mathcal{H}(p_g,Clf(AugF(Enc(\hat{x})))) \tag{4}L c o n −g ​=H (p g ​,C l f (A u g F (E n c (x ^))))(4 )
L c o n − f = H ( p g , C l f ( E n c ( x ^ ) ) ) (5) \mathcal{L}
{con-f}=\mathcal{H}(p_g,Clf(Enc(\hat{x}))) \tag{5}L c o n −f ​=H (p g ​,C l f (E n c (x ^)))(5 )
关于带标签 y y y 的数据 x x x, 其损失可表示为:
L c l f = H ( y , C l f ( A u g F ( E n c ( x ) ) ) ) (6) \mathcal{L}{clf}=\mathcal{H}(y,Clf(AugF(Enc(x)))) \tag{6}L c l f ​=H (y ,C l f (A u g F (E n c (x ))))(6 )
综上, 总损失函数为:
L t o t a l = L c l f + λ g L c o n − g + λ f L c o n − f (7) \mathcal{L}
{total}=\mathcal{L}{clf}+\lambda_g\mathcal{L}{con-g}+\lambda_f\mathcal{L}_{con-f} \tag{7}L t o t a l ​=L c l f ​+λg ​L c o n −g ​+λf ​L c o n −f ​(7 )

代码地址: https://github.com/GT-RIPL/FeatMatch

Original: https://blog.csdn.net/by6671715/article/details/122770893
Author: 码侯烧酒
Title: [半监督学习] FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/563086/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球