自然语言处理中的小样本学习

目录

自然语言处理中的小样本学习
什么是小样本学习,4/8/16
自然语言处理中的小样本学习
为什么小样本学习重要:跟人类比一样模型本身的能力体现、降低数据标注成本(一条标注1元,找5个众包要5元)
自然语言处理中的小样本学习
自然语言处理中的小样本学习
降本增效
自然语言处理中的小样本学习
发展历程
自然语言处理中的小样本学习
分类
自然语言处理中的小样本学习
预训练时代
自然语言处理中的小样本学习
标准微调
自然语言处理中的小样本学习
标准微调,在小样本效果差,终端的层级今天调整,参数量远远大于数据量,过拟合了
自然语言处理中的小样本学习
微调新范式,prompt tuning,把模型本身的预训练这个老师的知识潜力更大的发挥出来
自然语言处理中的小样本学习
PET基于人工的模板,把分类任务转换成完形填空任务
自然语言处理中的小样本学习
效果提升
自然语言处理中的小样本学习
PET的优点,释放潜力,无需随机化参数避免过拟合
自然语言处理中的小样本学习
缺点,不同模板差异大,模板无法表示全局最优化
自然语言处理中的小样本学习
P-Tuning,连续空间科学系模板,特殊字符来替代,可学习向量
自然语言处理中的小样本学习
下过对比,自动学到最优的模板
自然语言处理中的小样本学习
优点
自然语言处理中的小样本学习
缺点,多分类任务,当类别数大的时候,空间比较大,难度比较大
自然语言处理中的小样本学习
缺点,蕴含任务不符合自然语言处理习惯,因为预训练的数据都是正常的逻辑语言数据
自然语言处理中的小样本学习
EFL,统一转换成二分类任务
自然语言处理中的小样本学习
效果提升,任务更简单
自然语言处理中的小样本学习
优点
自然语言处理中的小样本学习
负样本采样数量,对效果影响大,一般负样本数是类别的数量一半的时候效果最好
自然语言处理中的小样本学习
增加了预测复杂度
自然语言处理中的小样本学习
PaddleNLP特色,显式增强和隐式增强
自然语言处理中的小样本学习
R-drop,输入数据不变,通过模型的drop得到不同的输出表示,不同的表示应该更近
自然语言处理中的小样本学习
效果
自然语言处理中的小样本学习
榜单效果
自然语言处理中的小样本学习
提升效果
自然语言处理中的小样本学习
简单的内置
自然语言处理中的小样本学习
参加竞赛
自然语言处理中的小样本学习
不同范式在同一个任务的对比,CNN-LSTM-BERT-Promt
自然语言处理中的小样本学习
总结
自然语言处理中的小样本学习

Original: https://blog.csdn.net/qq_15821487/article/details/124080643
Author: 愚昧之山绝望之谷开悟之坡
Title: 自然语言处理中的小样本学习

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/530057/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球