前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >「自然语言处理(NLP)论文解读」临床文本结构问答(QA-CTS)

「自然语言处理(NLP)论文解读」临床文本结构问答(QA-CTS)

作者头像
ShuYini
发布2019-08-29 18:14:34
6120
发布2019-08-29 18:14:34
举报

喜欢我们,点击上方AINLPer,关注一下,极品干货即刻送达!


引言

最近因读者要求,所以今天打算挑选一些和医疗相关的文章和大家分享,但是因为不可抗力只找到了一篇,(ps:医疗相关的文章真心不好找),所以Today只有一篇文章和大家分享,该文和临床医疗问答相关,其主要针对端到端特定任务模型和管道模型的弊端(缺乏数据集和误传播),提出一种基于临床文本结构(QA-CTS)的问答模型。

本文概要

1

First Blood

2

Aced

3

Attention

正文开始

1

First Blood

TILE: Question Answering based Clinical Text Structuring Using Pre-trained Language Model。

Contributor : 华东理工大学

Paper: arxiv.org/pdf/1908.0660

Code: None

文章摘要

临床文本结构是临床研究的一项重要基础性工作。传统的方法,比如端到端特定任务模型以及管道模型,往往会存在缺乏数据集和误传播的情况。为此本文提出了一种基于临床文本结构(QA-CTS)的问答,来统一不同的具体任务并使数据集共享。针对QA-CTS任务,提出了一种新的模型,旨在将领域特征(如临床命名实体信息)引入到预训练语言模型中。根据瑞金医院中国病理报告的实验结果,发现本文提出的QA-CTS任务对于提高具体任务的性能是非常有效的。

本文两大看点

1、提出了一种基于临床文本结构(QA-CTS)的问答任务,它统一了不同的特定任务,使数据集共享。提出了一种将临床命名实体信息集成到预训练语言模型中的有效模型。

2、实验结果表明,由于数据集的共享,QA-CTS任务性能得到了显著改善。提出的模型也比强基线方法获得了更好的性能。

QA-CTS

一般来说,研究人员分两步解决CTS问题。首先,选择与答案相关的文本。然后采用实体名称转换和否定词识别等步骤生成最终答案。虽然最终答案因任务而异,这确实会导致输出格式不一致,但在所有任务中,查找与答案相关的文本是一个常见的操作。

传统的方法把这两个步骤作为一个整体来考虑,在本文中,我们重点在段落文本X中寻找与答案相关的子串

。例如给定一个句子“远端胃切除标本:小弯长11.5cm,大弯 长17.0cm。距上切端6.0cm、下切端8.0cm”和问题“上切缘距离”,那么答案应该是6.0cm,它在句中对应的索引为32到37。通过这样的定义,统一了CTS任务的输出格式,使得训练数据可以共享,从而降低了对训练数据量的要求。

由于BERT已经证明了共享模型的有效性,我们假设提取该问题的共性,统一输出格式,将使该模型比专用模型更强大,同时对于特定的临床任务,可以将数据作为补充数据用于其他任务上。

QA-CTS Model

提出了一种有效的基于临床文本结构(QA-CTS)的问答模型。

如上图所示,首先将段落文本X传递给临床命名实体识别(CNER)模型,获取命名实体信息,并通过BIEOS (Begin, Inside, End, Outside, Single)标签方案为查询文本

和段落文本

获取one-hot CNER输出标签序列。

句子文本和查询文本的上下文表示

对于任何临床自由文本的段落X和查询Q,上下文表示都要生成它们的编码向量。在这里,我们使用预先训练好的语言模型BERTbase[27]模型来捕获上下文信息。

临床命名实体信息

由于BERT是在通用语料库上进行训练的,引入生物医学领域特有的特征可以提高其在生物医学领域的性能。本文将临床命名实体信息引入模型。

积分法

第一个方法是将它们连接在一起,因为它们具有具有公共维度的序列输出。第二种方法是将它们转换为一个新的隐藏表示。

最终预测

最后一个步骤是使用集成表示H_i来预测与答案相关的文本的开始和结束索引。在这里,我们将这个计算问题定义为每个单词作为开始或结束单词的分类。

两步训练机制

在细粒度视觉识别[32]-[34]中,双线性模型采用了两阶段训练机制。受此启发,由于BERT模型中参数较多,为了加快训练过程,我们首先对BERT模型进行微调,加入新的预测层,以获得更好的上下文化表示性能。然后,我们部署所提出的模型并加载微调的BERT权重,附加命名实体信息层并对模型进行再训练。

实验结果

BERT与本文模型之间的比较结果

本文模型的不同参数比较结果

不同积分方法的结果比较

数据集成分析的比较结果(没有两步训练机制以及实体信息)

数据集成分析的比较结果(加入两步训练机制以及实体信息)

2

Aced

如果论文你不方便一篇一篇的下载,你还可以直接访问我的GitHub直接下载所有文章地址:

https://github.com/yinizhilian/ACL_Paper

Attention:欢迎关注AINLPer微信公众号,了解更多最新的关于深度学习、自然语言处理相关的知识。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-08-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AINLPer 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 文章摘要
  • 本文两大看点
  • QA-CTS
  • QA-CTS Model
  • 实验结果
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档