【论文发表】2022 HIRE–首篇基于异构图神经网络的高阶关系知识蒸馏方法

简介

论文终于中啦啦啦,本人的研究方向是异构图神经网络和知识迁移,欢迎大家一起学习交流呀。本文内容同时投稿在 PaperWeekly,见HIRE–基于异构图神经网络的高阶关系级知识蒸馏方法

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

论文标题:

HIRE: Distilling high-order relational knowledge from heterogeneous graph neural networks

论文单位:
中科院计算技术研究所 & 浙江大学

论文链接:

https://www.sciencedirect.com/science/article/pii/S0925231222009961
或者
https://arxiv.org/abs/2207.11887

由于异构图在学术界和工业界的普遍存在,研究人员最近提出了大量的异构图神经网(HGNN)。与追求更强大的HGNN模型不同,本文更加感兴趣的是设计一个通用的即插即用模块,该模块从预先训练的HGNN中提取相关知识。据我们所知,本文是首篇提出异构图神经网络上的高阶关系(HIgh-order RElational, HIRE)知识蒸馏框架,该框架可以显著提高异构图神经网络模型的性能。具体来说,该方法通过进行节点级知识蒸馏(Node-level Knowledge Distillation, NKD),对预训练异构教师模型的单个节点语义进行编码;通过进行关系级知识蒸馏(Relation-level Knowledge Distillatio, RKD),对预训练异构教师模型的不同类型节点之间的语义关系进行建模。通过整合节点级知识蒸馏和系级知识蒸馏, 这种高阶关系知识蒸馏方法成为一种实用且通用的训练方法,适用于任意的异构图神经网络,不仅提升了异构学生模型的性能和泛化能力,而且保证了对异构图神经网络的节点级和关系级知识提取。

; 方法

动机

近年来,为了解决异构图中节点和边的异质性问题,研究人员提出了许多基于HGNN的方法,主要分为基于元路径的方法和基于边关系的方法。虽然现有的HGNN已经取得了很好的性能, 但它们的表示能力受限于: (1)数据标注不精确。一般来说,HGNN的训练方式属于半监督学习,因此其性能高度依赖于大量高质量的标签数据。然而,模糊的数据标注将成为HGNN建模的瓶颈;(2) 不同类型节点之间的语义关系建模困难。尽管元路径被用于异构图中的高阶语义建模,但是不同领域的元路径选择仍然具有挑战性,因为它需要足够的领域知识。

近年来,深度学习中的知识蒸馏(KD)技术在提升模型的性能上展现出一定的优点。目前,有一些工作尝试将知识蒸馏方法和图神经网络结合在一起进行应用。虽然这些蒸馏方法的性能很好,但它们都是为同构图神经网络设计的,其中处理的数据中每个节点或边都是相同的类型。

那么如何在HGNN上设计出一种高效通用的知识蒸馏方法呢?本文提出HIRE方法来解决该问题,具体实现见下文。

创新

本文工作的创新点主要有3点:

  • 据我们所知,本文是第一个研究异构图上的知识蒸馏研究问题的工作。值得注意的是,本文通过考虑异构图的二阶关系知识来建模HGNN的高阶知识。
  • 本文提出了一个新的知识蒸馏框架–HIRE,同时考虑单个节点软标签和不同节点类型之间的相关性知识。后者通过引入类型相关的注意层来获取异构图中不同类型节点的丰富语义信息,从而将不同节点之间的关系知识传递给学生。
  • 本文在流行的HGNN模型上进行了广泛的实验,证实了HIRE框架的有效性和强泛化能力。

HIRE

本文提出的高阶关系知识蒸馏HIRE模型框架如下图2所示,主要包含两个组件:一阶节点级知识蒸馏NKD和二阶关系级知识蒸馏RKD,分别用来解决HGNN目前面临的两大挑战。

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

其中RKD的具体实现可见下图1c。

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

; NKD

针对数据标签标注不精确的问题,本文引入一阶节点级知识蒸馏(NKD)方法,将目标节点(如电影数据中的电影)的软标签传递给学生,为下游任务(如节点分类)提供一般的监督信息,解决节点标注问题。

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

RKD

针对异构图中不同类型节点之间的语义关系建模问题,设计二阶关系级知识蒸馏(RKD)方法,从预训练教师模型中编码不同节点类型之间的关系知识转移到学生模型中,为下游任务(如节点分类)提供高阶关系语义监督信息,解决软性建模语义关联问题。

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

; 训练

HIRE模型训练过程见下面算法1:

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

实验

本文通过大量的实验主要回答以下三个问题:

  • RQ1: HIRE在节点分类、节点聚类和节点可视化任务上的整体表现如何?
  • RQ2:HIRE中的NKD和RKD这两个组件分别起着什么样的作用?
  • RQ3: 超参数的不同设置如何影响HIRE框架的整体预测性能?

数据集

本文使用的数据集包括 ACM、IMDB等常用基准数据集,具体如下表3所示:

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

; 节点分类

HIRE方法在ACM数据集上的节点分类实验结果如表 4 所示,发现随着培训比例的增加,学生模型性能 均获得一致显著提升,提升范围为0.1% ∼ 3.1%,这表明本文提出的HIRE方法的有效性和强泛化能力。HIRE在其他两个数据集上的效果详细可见论文。

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

节点聚类

如表7所示,HIRE方法在节点聚类任务上仍表现出卓越的性能,学生模型能够 持续显著地提高相应教师模型的性能, 最高可达∼ 53.3%

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

; 节点可视化

为了更直观的比较,本文还进行了节点可视化任务。以ACM数据集为例,从图3中,可以观察到相较于教师模型,学生模型可以 提供清晰的边界,使得类内相似性变高,类间隔变大

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

消融实验

不同阶知识蒸馏效果对比

为了验证HIRE每个组件的有效性,本文进一步对不同的HIRE变体进行了实验。其中,CE(交叉熵)等价于教师模型。四种变体的实现效果如下图5所示,整体表现出 HIRE ≥ RKD ≫ NKD > CE

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

; 注意力值可视化

HIRE的一个显著特性是加入了一个类型相关的注意层模块,为了验证该模块的作用,本文对不同异构节点的注意力值进行可视化,实验结果如下图7所示: 发现该模块可以自是定获取不同节点类型和边的高阶语义监督信息

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

参数敏感性实验

通过在3个数据集上对所有异构模型的超参数进行参数敏感性实验,HIRE 对参数不敏感,具有很好的鲁棒性

【论文发表】2022 HIRE--首篇基于异构图神经网络的高阶关系知识蒸馏方法

; 总结

本文首次提出了基于HGNN的高阶关系(HIgh-order RElational, HIRE)知识蒸馏框架,填补了从异构图神经网络模型中提取知识的空白。在ACM、IMDB和DBLP数据集上进行的大量实验证明了我们提出的HIRE的有效性,尤其可以自适应获取高阶语义,且可适用于任意的异构图神经网络。

Original: https://blog.csdn.net/lj2048/article/details/126287786
Author: 静静喜欢大白
Title: 【论文发表】2022 HIRE–首篇基于异构图神经网络的高阶关系知识蒸馏方法

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/689108/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球