前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(二)

(含源码)「自然语言处理(NLP)」Question Answering(QA)论文整理(二)

作者头像
ShuYini
发布2020-03-25 18:27:45
1K0
发布2020-03-25 18:27:45
举报

引言

本次整理的论文主要偏向于Open-Domain QA,共8篇文章,其中主要涉及到混合注意力方法、预训练模型分析、BERT预训练模型优化、QA数据集、问答跳转等。(前六篇含源码)

微信下载论文不方便,你可以直接回复:QA002 进行打包下载。

最后,帮作者点个在看吧,谢谢~~

正文开始

1

First Blood

1、TILE: Compositional De-Attention Networks

Author: Yi Tay,Anh Tuan Luu,Aston Zhang,Shuohang Wang,Siu Cheung Hui

Paper:http://papers.nips.cc/paper/8845-compositional-de-attention-networks.pdf

Code: https://github.com/vanzytay/NeurIPS2019_CODA

论文简述: 注意力模型的显著特征是它们可以学习相对重要性的能力,即为输入值分配不同的权重。本文提出了一种新的具有复合性质的准注意方法,即在学习表示时,学习某一向量是加,是减还是零。这与普通的注意力形成了强烈的对比,传统的注意力方式只是简单地重新调整输入标记的权重。在六个NLP任务上评估CoDA,即开放域问题回答、检索/排序、自然语言推理、机器翻译、情感分析和text2code生成,得到了比较好的结果。

2、TILE: Language Models as Knowledge Bases?

Author: Fabio Petroni,Tim Rocktäschel,Patrick Lewis,Anton Bakhtin, Yuxiang Wu,Alexander H. Miller,Sebastian Riedel

Paper: https://arxiv.org/pdf/1909.01066v2.pdf

Code: https://github.com/facebookresearch/LAMA

论文简述: 本文深入分析了在一系列最先进的预训练语言模型中已经存在(没有微调)的关系知识。我们发现:(1)在没有微调的情况下,BERT包含了与传统NLP方法相竞争的关系知识,后者可以访问oracle知识;(2)BERT在有监督基线的开放域问题回答上也做得非常好,(3)通过标准语言模型的预训练方法,某些类型的事实知识比其他类型的知识更容易学习。这些模型在不进行任何微调的情况下调用事实知识的能力惊人地强,这表明它们作为无监督的开放域QA系统的潜力。

3、TILE: SpanBERT: Improving Pre-training by Representing and Predicting Spans

Author: Mandar Joshi ,Danqi Chen,Yinhan Liu,Daniel S. Weld,Luke Zettlemoyer,Omer Levy

Paper: https://arxiv.org/pdf/1907.10529v3.pdf

Code: https://github.com/facebookresearch/SpanBERT

论文简述: 本文提出了SpanBERT预训练方法,旨在更好地表示和预测文本的跨度。本文方法通过(1)屏蔽连续的随机跨度,而不是随机Tokens来扩展BERT;(2)训练跨度边界表示来预测屏蔽跨度的全部内容,而不依赖于其中的单个Token表示。实验结果显示SpanBERT始终比BERT和我们更好调优的基线表现更好,在回答问题和共同参考解决等跨度选择任务上取得了巨大的进步。

4、TILE: XQA: A Cross-lingual Open-domain Question Answering Dataset

Author: Jiahua Liu , Yankai Lin , Zhiyuan Liu , Maosong Sun

Paper:https://www.aclweb.org/anthology/P19-1227.pdf

Code: https://github.com/thunlp/XQA

论文简述: 本文构建了一个用于跨语言OpenQA研究的新数据集XQA。它包括英语培训集以及其他八种语言的开发和测试集。此外,还为跨语言OpenQA提供了多个基线系统,包括两个基于机器翻译的方法和一个零距离跨语言方法(多语言BERT)。

5、TILE: Multi-Hop Paragraph Retrieval for Open-Domain Question Answering

Author: Yair Feldman , Ran El-Yaniv

Paper: https://arxiv.org/pdf/1906.06606v1.pdf

Code: https://github.com/yairf11/MUPPET

论文简述: 本文研究的是多跳开放域问答系统。本文提出了一种检索多个支持段落的方法,这些段落嵌套在一个庞大的知识库中,包含了回答给定问题所必需的证据。我们的方法通过形成问题和段落的联合向量表示来迭代检索支持段落。检索是通过考虑知识源中段落的上下文化句子级表示来实现的。本文方法在数据集SQuAD Open和HotpotQA上实现了最好的性能,这两个数据集分别作为我们的单跳和多跳开放域QA基准。

6、TILE: Real-Time Open-Domain Question Answering with Dense-Sparse Phrase Index

Author: Minjoon Seo,Jinhyuk Lee,Tom Kwiatkowski,Ankur P. Parikh,Ali Farhadi,Hannaneh Hajishirzi

Paper: https://arxiv.org/pdf/1906.05807v2.pdf

Code: https://github.com/uwnlp/denspi

论文简述: 现有的开放问答(OpenDomain QA)模型不适合实时使用,因为它们需要为每个输入请求按需处理多个长文档。在本文中,提出了一种与文档短语的查询无关的可索引表示,它可以极大地提高开放QA的速度。除此之外,本文密集-稀疏短语编码有效地捕获短语的语法、语义和词汇信息,消除了上下文文档的管道过滤。

7、TILE:DC-BERT: Decoupling Question and Document for Efficient Contextual Encoding

Author: Yuyu Zhang,Ping Nie,Xiubo Geng,Arun Ramamurthy,Le Song,Daxin Jiang

Paper: https://arxiv.org/pdf/2002.12591v1.pdf

Code: None

论文简述: 针对开放域问题回答的研究,使用预先训练的语言模型(如BERT)实现了显著的性能改进。最先进的方法通常遵循“检索和读取”管道,并使用基于BERT的reranker来过滤检索到的文档,然后再将它们提供给阅读器模块。BERT检索器将问题的串联和检索到的每个文档作为输入。尽管这些方法在QA准确性方面取得了成功,但是由于连接的原因,每个问题都包含大量检索到的文档,它们几乎不能处理大量输入的问题。为了解决效率问题,本文提出了一个解耦的上下文编码框架DC-BERT,它具有双重BERT模型:一个在线的BERT只对问题进行一次编码,一个离线的BERT对所有文档进行预编码并缓存它们的编码。

8、TILE: REALM: Retrieval-Augmented Language Model Pre-Training

Author: Kelvin Guu,Kenton Lee,Zora Tung,Panupong Pasupat,Ming-Wei Chang

Paper: https://arxiv.org/pdf/2002.08909v1.pdf

Code: None

论文简述: 语言模型的预训练已经被证明能够获取大量的知识,这对于NLP任务(如回答问题)是至关重要的。然而,这些知识隐含在神经网络的参数中,需要更大的网络来覆盖更多的事实。为了以更模块化和可解释性的方式捕获知识,我们在语言模型预训练中增加了一个潜在的知识检索器,该检索器允许模型从一个大型语料库(如Wikipedia)中检索和处理文档,用于预训练、微调和推理。我们展示了如何以一种无监督的方式预先训练这样一个知识检索器,使用掩蔽语言建模作为学习信号,并通过一个考虑数百万文档的检索步骤进行反向传播。通过对具有挑战性的开放式问题回答(Open-domain Question answer, Open-QA)任务进行微调,我们证明了检索增强语言模型预训练(REALM)的有效性。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-03-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AINLPer 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
机器翻译
机器翻译(Tencent Machine Translation,TMT)结合了神经机器翻译和统计机器翻译的优点,从大规模双语语料库自动学习翻译知识,实现从源语言文本到目标语言文本的自动翻译,目前可支持十余种语言的互译。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档