前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ACL2021 | 一种巧妙解决NER覆盖和不连续问题的方法

ACL2021 | 一种巧妙解决NER覆盖和不连续问题的方法

作者头像
zenRRan
发布2021-09-10 11:24:44
1.7K0
发布2021-09-10 11:24:44
举报

每天给你送来NLP技术干货!


论文:A Span-Based Model for Joint Overlapped and Discontinuous Named Entity Recognition 链接:https://aclanthology.org/2021.acl-long.372.pdf 代码:https://github.com/foxlf823/sodner

提取摘要

由于普通的NER问题被研究的透透的了,本文主要解决一种稍微复杂些问题:一种带有覆盖和不连续(Overlapped and Discontinuous)的命名实体识别任务。

而在这两者研究上来说,前人只是要么解决覆盖问题,要么解决不连续问题,但是本文提出一种联合解决这两种问题的span-based方法。

span-based方法昨天也提到过了,所以关于实体+关系抽取的任务都可以尝试。

本文通过两个步骤构建模型:

  1. 通过列举所有可能的text span来识别出实体片段(entity fragments);
  2. 在这些entity fragments上预测是两种关系overlapping or succession。

这样,我们不仅可以识别Discontinuous的实体,同时也可以对Overlapped的实体进行双重检查。

通过上述方法轻松将NER装换成RE(Relation Extraction)任务。最终实验在很多数据集上比如CLEF, GENIA and ACE05上展现除了很强劲的性能。

和往常的BIO标注的序列标注问题对比:

具体解读

该模型的步骤为

  1. input一方面通过pre-train模型获取word rep,一方面通过dependency parsing获取句法信息;
  2. GCN集合LSTM的输出和句法输入,得到syntax-enhanced的新的表达;
  3. 获取所有span表示;
  4. 通过两个MLP预测span是否为实体,以及实体时间是否有关系;
  5. 最后每个loss加上权重,为最终优化目标。

关键分类

AGGCN用来融入句法信息

attention-guided GCN (AGGCN)比普通GCN要强一些,所以这里选用该方法。传统的GCN:

而AGGCN就是使用self-attention,替换以前的邻接矩阵A,最后通过线性方法将multi head生成的结果合一:

Span的表示

解码

先预测实体片段,再预测关系。

解码公式

损失计算

实验

实验数据介绍

在数据上的表现

在其他数据上与前人的对比,虽然性能不如SOTA,但是这种Span-based方式和SOTA差不了多少,是个新颖的想法。


本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-09-07,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 提取摘要
  • 具体解读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档