【论文解读】Co-attention network with label embedding for text classification

🍥关键词:文本分类、多分类、多标签、标签嵌入
🍥发表期刊:Neurocomputing 2022 A2
🍥原始论文:https://mqianliu.github.io/files/CNLE_Neurocomputing22.pdf
🍥代码链接:https://github.com/lizhaoliu-Lec/CNLE

华南理工出了一篇有意思的文章,将标签和文本的序列信息进行深度融合,最终形成文本增强的标签表示和标签增强的文本表示。

一、Introduction

在本文中,我们试图通过进一步构造具有文本到标签注意的文本参与标签表示来利用标签信息。为此,我们提出了一种带有标签嵌入的协同注意网络(CNLE),该网络将文本和标签联合编码到它们相互参与的表示中。通过这种方式,该模型能够兼顾两者的相关部分。实验表明,我们的方法在7个多类分类基准和2个多标签分类基准上取得了与以前最先进的方法相比较不错的结果。

Paper中设计了一个网络模型,其包括Text-Lable Co-attentive Encoder(TLCE)和Adaptive Label Decoder(ALD)

【论文解读】Co-attention network with label embedding for text classification

2.1 TLCE

假设文本x包含m个词和标签序列l包含c个标签

使用预训练词向量GloVe模型对单词进行嵌入,使用随机初始化对标签进行嵌入,随后使用两个独立的线性投影层进行投影,得到

【论文解读】Co-attention network with label embedding for text classification,【论文解读】Co-attention network with label embedding for text classification

为了捕获文本序列中的上下文信息和标签序列中的相关性,使用BiLSTM来进行特征提取

【论文解读】Co-attention network with label embedding for text classification

【论文解读】Co-attention network with label embedding for text classification

为了获得文本参与的标签表示和标签参与的文本表示,使用改编的MultiHead Self-Attention

【论文解读】Co-attention network with label embedding for text classification

【论文解读】Co-attention network with label embedding for text classification

【论文解读】Co-attention network with label embedding for text classification

【论文解读】Co-attention network with label embedding for text classification

为了进一步利用标签连接文本编码的上下文信息和文本连接标签编码的相关性,使用两个独立的BiLSTM来传播文本序列和标签序列

【论文解读】Co-attention network with label embedding for text classification

【论文解读】Co-attention network with label embedding for text classification

到这里为止,编码工作就完成了

2.2 ALD

随后需要进行解码工作,主要使用了两个步骤

1)使用使用LSTM解码器获得隐藏状态、单元状态和循环上下文状态

2)通过自适应分类器计算每个类的概率

使用标准LSTMCell来生成标签序列进行解码操作,

【论文解读】Co-attention network with label embedding for text classification是隐藏层状态,【论文解读】Co-attention network with label embedding for text classification是cell状态,【论文解读】Co-attention network with label embedding for text classification是标签表示,【论文解读】Co-attention network with label embedding for text classification是文本表示。

【论文解读】Co-attention network with label embedding for text classification

获得隐藏层状态之后,加上文本序列来计算注意力权重

【论文解读】Co-attention network with label embedding for text classification

那么,当前状态的上文表示为

【论文解读】Co-attention network with label embedding for text classification

获得了隐藏层状态后与标签序列一起来生成自适应分类器

【论文解读】Co-attention network with label embedding for text classification

损失函数的定义为

【论文解读】Co-attention network with label embedding for text classification

这里的损失函数既可以用于单标签也可以用于多标签

三、Experiment

数据集包括了7个多类分类数据集和2个多标签分类数据集,均为经典数据集

【论文解读】Co-attention network with label embedding for text classification

准确率

【论文解读】Co-attention network with label embedding for text classification

micro-F1

【论文解读】Co-attention network with label embedding for text classification

【论文解读】Co-attention network with label embedding for text classification

消融实验

【论文解读】Co-attention network with label embedding for text classification

【论文解读】Co-attention network with label embedding for text classification

对比实验

【论文解读】Co-attention network with label embedding for text classification

共享权重策略实验

【论文解读】Co-attention network with label embedding for text classification

共享参数对分类的效果没有多大影响,因为这样的模型使得标签和文本在语义空间上已经有高度的相似性。

四、Conclusion

这样的注意力机制还是蛮有意思的,将标签信息与文本信息进行融合,获得标签参与的文本表示和文本参与的标签表示。在多标签和低资源文本分类问题上可以进行借鉴。

Original: https://blog.csdn.net/ccaoshangfei/article/details/126085984
Author: 北村南
Title: 【论文解读】Co-attention network with label embedding for text classification

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/542971/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球