论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence

论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence Prediction

先前的一些基于Prompt的方法都是建立在Masked Language Modeling(MLM)任务上,即将下游任务转换为完形填空型任务。本文则换一种角度,将Prompt用在了被大多数语言模型摒弃掉的Next Sentence Prediction(NSP)上。

简要信息:

序号属性值1模型名称NSP-BERT2发表位置ArXiv 20213所属领域自然语言处理、预训练语言模型4研究内容Prompt-tuning5核心内容NSP, Prompt-tuning, Few-shot6GitHub源码
https://github.com/namisan/mt-dnn

7论文PDF
https://arxiv.org/pdf/2109.03564

一、动机:

现有的工作都关注基于GPT的 left-to-right 或BERT的Masked Language Model(MLM)的prompt方法(即基于token-level的prompt);本文则使用被RoBERTa等摒弃掉的NSP任务来实现,并应用在Zero-shot场景。

二、贡献:

  • 提出NSP-BERT,基于sentence-level的pre-training任务实现prompt-learning;
  • 提出两个可选择的label/answer映射方法,在sentence-pair上提升效果;

三、Prompt

目前Prompt-tuning可以分为两种类型,分别是:
Token-level Prompt-learning
给定一个句子,添加一个带有[MASK]的prompt模板,设计verbalizer来获得[MASK]预测的词以及对应的标签;因此可以将一些任务转换为完形填空式任务。

论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence
Sentence-level Prompt-learning
将NLP转换为文本蕴含任务,例如:
论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence
换句话说,可以将原始的文本、设计的Template以及候选的答案一起拼接起来后,构造为NSP的任务数据,并让模型来判断候选答案是否符合上下文语义。

; 四、NSP-BERT

NSP可以用于多种不同的任务,所有任务均可以转换为NSP的格式,具体情况如下图所示:

论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence
MLM与NSP的对比如下图所示:
论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence
  • 基于MLM的prompt-tuning旨在添加一个额外的模板,并让模型预测[MASK]对应的预测结果,并映射到相应的类别上,从而只需要利用预训练好的MLM head,避免引入新的参数;
  • 基于NSP的prompt-tuning则是完全利用预训练好的NSP head,将所有任务转换为类似自然语言推理(NLI)的模式,并让模型判断候选的答案是否正确。

具体地说,在预训练过程中,NSP的目标始终是一个二分类任务,即在NSP头部([CLS])添加一个分类器:

q M ( n k ∣ x i ) = exp ⁡ s ( n k ∣ x i ( 1 ) , x i ( 2 ) ) ∑ exp ⁡ s ( n k ∣ x i ( 1 ) , x i ( 2 ) ) q_{\mathcal{M}}(n_k|\mathbf{x}_i)=\frac{\exp s(n_k|\mathbf{x}_i^{(1)}, \mathbf{x}_i^{(2)})}{\sum\exp s(n_k|\mathbf{x}_i^{(1)}, \mathbf{x}_i^{(2)})}q M ​(n k ​∣x i ​)=∑exp s (n k ​∣x i (1 )​,x i (2 )​)exp s (n k ​∣x i (1 )​,x i (2 )​)​

其中 n k ∈ { I s N e x t , I s N o t N e x t } n_k\in{IsNext, IsNotNext}n k ​∈{I s N e x t ,I s N o t N e x t },s ( ) s()s () 表示NSP head的相似度计算函数

NSP-BERT可以用于多个任务

single-sentence task

输入原始句子,以及对应的一个模板:

论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence
预测的概率则为
论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence

; sentence pair task

输入两个文本:

论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence
在NSP头部输出结果:
论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence

cloze-style task

输入一个文本,每个标签 j j j 都对应一个带有[MASK]的模板 p i ( j ) p_i^{(j)}p i (j )​:

论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence
输出isNext的概率分布:
论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence

备注:在cloze-style时,[MASK]部分(文本为[BLANK])与候选文本的位置应该相等,即soft-position:

论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence

; Word Sense Disambiguation

认为,NLI要提升推理能力,需要避免指代问题,提出two-stage prompt:

论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence

Answer Mapping

如何将预测的答案映射到对应的标签上呢?因为NSP只是一个二分类任务(IsNext)。提出两种方法:

  • candidates-contrast:如果某个task包含多个候选标签,则为每个标签设计一个prompt模板,然后通过NSP预测这个标签与原文匹配的关系概率;对所有的标签,取概率最大的
    论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence
    论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence
  • samples-contrast
    对于一些没有候选标签的数据,则基于样本和排序完成预测对应的标签:
    论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence

Original: https://blog.csdn.net/qq_36426650/article/details/122255324
Author: 华师数据学院·王嘉宁
Title: 论文解读:NSP-BERT: A Prompt-based Zero-Shot Learner Through an Original Pre-training Task——Next Sentence

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/531251/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球