关系抽取信息抽取知识图谱

20210629

http://cmekg.pcl.ac.cn/
cmekg 知识图谱,关系抽取

20210628

https://www.cnblogs.com/robert-dlut/p/14343408.html
中文电子病历命名实体识别(CNER)研究进展

http://www.cips-chip.org.cn/2020/eval2
chip 关系种类

http://schema.omaha.org.cn/class/Severities
hita知识图谱 schama

关系抽取信息抽取知识图谱
yidu-n7k_医疗实体名词标准化
应该没啥用 直接共指关系就可以解决

20210627

https://blog.csdn.net/hacker_long/article/details/100148374/
【每周NLP论文推荐】 掌握实体关系抽取必读的文章

https://github.com.cnpmjs.org/thunlp/NREPapers
快速 必须 看的关系抽取论文

Consider the location-contains relation, imagining
that in Freebase we had two instances of
this relation: hVirginia, Richmondi and
hFrance, Nantesi.

实例和关系

20210624

https://zhuanlan.zhihu.com/p/379130398
https://aistudio.baidu.com/aistudio/competition/detail/65
https://gitee.com/baymax_syt/kg-2019
http://lic2019.ccf.org.cn/kg

百度关系抽取比赛

https://zhuanlan.zhihu.com/p/47949341
知识图谱的本体模型设计和ER模型设计的区别

节点融合:本质上是同一个实体的不同提及合并成一个实体

本体:以大类作为节点来构图?

从以往经验看来,一个合理的本体模型大概要满足以下几点要求:

有效地支撑业务的分析和决策。
正确一致地展示数据信息。
拥有广泛的适用性,易于添加新的节点类型和关系。

20210616

https://zhuanlan.zhihu.com/p/69362160
医疗健康文本的关系抽取和属性抽取

https://blog.csdn.net/demm868/article/details/110944404
实体-关系信息抽取上线使用F1值87.1% (附数据集)

https://blog.csdn.net/qq_27590277/article/details/108701469
医疗NLP相关数据集整理

关系提取

零氪科技 医学文本实体关系抽取

https://github.com/lyn2018lyn/awesome_chinese_medical_nlp
医疗NLP 资源汇总 重点

https://blog.csdn.net/qq_35914625/article/details/109307361
https://github.com/beader/ruijin_round2
里面有竞赛连接和数据集
天池下的瑞金医院MMC人工智能辅助构建知识图谱

大部分都属于跨句子 但是局限于一个段落内
而不是跨段落 文档级

https://blog.csdn.net/weixin_40485502/article/details/104294410
跨句多元关系抽取

SOTA集结,2020登顶关系抽取的3篇佳作
https://blog.csdn.net/qq_27590277/article/details/113101227

20210615

需要明确的问题

mult-tun qa

joint model 二者可以解决嵌套实体的问题?

1.基于transformer
2.远程监督
3.现实体训练数据量
4.关系种类个数
5.限定域还是开放域
6.是否开放关系抽取
7.少样本量学习
8.文档级关系抽取
9.对抗网络 快速实现
10.基于预训练和transformer的模型
或者EPGNN
11.考察openNER

20210610

1.问宏当的问题
那种信息抽取效果最好
精度,泛化性
2.需要明确的问题
2.1 标注数据的多少
2.2 实体和关系的多少
2.3计划先半个月 出 demo

wang shi yang:
数据量少
wang shi yang:
标注工作量大
wang shi yang:
1.三元组提取出来
wang shi yang:
2. 实体消歧义
wang shi yang:
实体统一
wang shi yang:
3.构建知识图谱
wang shi yang:
95%
wang shi yang:
事件抽取
wang shi yang:
训练数据
wang shi yang:
由于
wang shi yang:
实体定义 关系定义
wang shi yang:
半个月 一个月效果
wang shi yang:
实体关系太多可能效果不好

https://blog.csdn.net/sdu_hao/article/details/105314218

关系抽取方法综述

信息抽取(Information Extraction, IE)是从自然语言文本中抽取结构化信息的领域。该领域用于各种NLP任务,如创建知识图谱、问答系统、文本摘要等。关系抽取本身就是IE的一个子域。

OpenIE 5.0和Stanford OpenIE是这样做的两个开源系统。它们比TextRunner更现代(这里只是用它来演示范例)。我们可以期望从这样的系统输出许多不同的关系类型(因为我们没有指定我们感兴趣的关系类型)。

https://zhuanlan.zhihu.com/p/349716490
综述:关系抽取,挑战与机遇并存!
未看完
在大多数情况下,一个关系只有很少的数据,这使得简单的关系抽取模型无能为力,为了解决监督学习中的数据需求问题,一种办法是上述提及的远程监督的方法,自动生成带有标签的训练数据,减轻人工标注数据的成本;另一种办法是研究如何充分利用少量标注数据进行训练,使得模型具有更好的泛化能力,即少样本学习( Few-shot Learning),少样本关系抽取任务的目的是通过少量的标注样本数据训练(或者微调)模型,使模型可以快速学习到一个或几个关系类别的特征信息,从而对这些类别准确分类。

少样本学习主要有两类主要方法:

1、度量学习:谷歌提出的 MTB 模型[8]在FewRel上面取得了 SOTA 的效果,采用对比学习的思想,利用 BERT 预训练模型,引入 matching the blanks 目标:如果两个句子中包含相同的实体对,那么它们关系表示的相似度尽可能高,反之相似度应尽可能低。

一种无监督的图像/文本的表示学习。
Motivation:人类往往是通过对比来学习区分事物的。模型无需学习到过于具体的细节(图像:像素级别;文本:词语级别),只需要学习到足以区分对象的高层次的特征。

对比学习

对比学习广泛应用于图像领域的无监督表示学习,以MoCo(ICML2020)和SimCLR(2020)为代表,在ImageNet数据集上取得了显著的提升。「对比学习的核心在于如何构建正负样本集合」,图像领域一般通过旋转、裁剪等图片操作,而文本领域往往通过回译、字符插入删除等方法,这些方法依赖于领域经验,缺乏多样性和灵活性;因此,近期有一些论文(「Robust Pre-Training by Adversarial Contrastive Learning」)通过对抗攻击来做数据增强,获取正负样本,值得关注。

全局特征为锚点(anchor)

https://zhuanlan.zhihu.com/p/131275999
关系抽取综述与前瞻

https://zhuanlan.zhihu.com/p/74914680
基于深度学习的关系抽取综述

https://zhuanlan.zhihu.com/p/91762831
知识图谱从哪里来:实体关系抽取的现状与未来 清华大学

https://blog.csdn.net/CSDN_wujian/article/details/100136621
关系抽取概述及研究进展Relation Extraction Progress
数据集

http://nlpprogress.com/english/relationship_extraction.html
关系抽取各种数据集对应的进展

Original: https://blog.csdn.net/kyle1314608/article/details/117791452
Author: weixin_ry5219775
Title: 关系抽取信息抽取知识图谱

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/557809/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球