前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【ACL2020】使用问题图生成解决multi-hop复杂KBQA

【ACL2020】使用问题图生成解决multi-hop复杂KBQA

作者头像
zenRRan
发布2020-09-29 23:02:38
5860
发布2020-09-29 23:02:38
举报

目前解决复杂KBQA(Knowledge Base Question Answering)的难点主要在于:问题带限制以及问题里包含有多个关系。这篇文章提出了一个query graph生成方法解决这个问题。

1. 背景介绍

在了解本文具体做什么之前,需要再明确下什么是带限制的问题和multi-hop of relations。带限制的问题,其实就是带限定词,例如Who was the first president of the U.S,这里的first就是限定词。multi-hop问题,例如像Who is the wife of the founder of Facebook, 包含两个关系,wife of和founder of,这就是多跳问题。目前的工作对于这两个难点都有一些研究进展,但是大多都是解决其中一个问题,针对第一个问题,已有的方法是先识别出一个relation path,再加限定词去形成一个query graph,针对第二个问题,最直接的思路就是扩展relation path,像广度优先搜索那样,但这种方法的问题是随着relation path变长,搜索空间会指数级增大。目前的工作很少有将两个问题一起解决,这篇文章提出一个改进的阶段性问题图生成方法,在延长relation path加入限定词来剪枝,有效的减少了搜索空间。

2. 方法

论文给了一个例子就是下图的Who is the first wife of TV producer that was nominated for The Jeff Probst Show? 这句话中有两个relation——“wife of”, “nominated for”, 两个constraint——”first“,”TV producer”。

接下来我们以一种比较直观的方式根据下图看看如何生成query graph,首先从一个grounded entity “The Jeff Probst Show”出发,找到一条核心relation path连接entity和answer,如果没有多余的限定词和其他关系,那这个answer就是图中的x,但是因为还有限定词,所以这个x变成了y1,一个中间节点。从y1接着往下走,加入问题中的限定词(如图所示的两个constraints,其中第二个argmin代表的是first,可以理解为在众多选项中选择最小的一个)。当我们已经找到所有候选query graphs,再通过和问题相似度进行排名,这一步通常使用CNN实现。最后选择分数最高的query graph来答题。

上述的方法是最近几年query graph生成概括性的总结,这篇文章也总结了之前方法中出现的问题:目前的成果只考虑了只有一个hop的relation path(或者是two hops with a CVT node),如果把核心relation path加长,假设加长到3个hop,那么可能会有10000个核心relation path,这会带来巨大的计算量。

所以本文的思路是在扩展relation path时加入限定词,可以减少搜索空间,并使用beam search和语义匹配来剪枝。

对于整体思路以及作者想要做什么有了了解之后,我们再来看看这篇文章的算法细节。

作者使用了三种action:extend,connect,aggregate来添加节点,这三个action其实就是上述过程的一个细分。如下图所示,extend的作用是找到relation,在图中第一个迭代找到了nominated for,通过extend把spouse,也就是wife这个信息加进来,并把原先的x换成一个中间节点;connect的作用是找到问题中其他grounded entity连接到已有的节点上;aggregate的作用是生成aggregation function的节点,例如图中的argmin,作者预先设定了一些关键词集合(e.g first, last most, least…)的aggregate function。

每一次迭代结束后,都会对候选query graphs进行排序,排序的方法是对每一个query graph进行一个7-dimensional向量的求导,在把这些向量送入一个全连接层,最后用softmax算出概率。

向量的第一维是BERT的词向量,第二维是所有grounded entity的linking scores,第三维是所有出现在query graph里的grounded entities的数量,四五六分别是实体类别,短语和最高级词语的数量,最后一维是答案的数量。

3. 实验与结果

(1) 实验设置

实验数据使用了三个数据集:Complex WebQuestions(CWQ), WebQuestionSP(WQSP)和ComplexQuestions(CQ)。实验使用了BERT base,BERT模型的超参数的dropout ratio设置为0.1。Knowledge base使用的是最新发布的Freebase,beam search的beam size K设为3。

(2) 实验结果

实验结果如图所示,作者和之前的一些模型进行了对比。图片中列举的前三个是不能解决multi-hop问题,第四个是没有使用beam search或者constraints来减少搜索空间。第五个是使用了beam size为1的beam search但没有解决constraints。六七两个是把复杂问题解构成简单问题。

实验结果证明作者的方法要好于前人的工作。

作者为了证明模型的有效性并不是依赖BERT,他们把BERT换成了LSTM,分数依然超越之前的模型。同时,作者还测试了去除掉extend/connect/aggregate三个动作的分数,结果如下图

(3) 错误分析

实验随机抽取了一百个error case并分析了错误原因。其中65%的错误是因为query graph的错误预测,问题中的关系人也很难观察到;27%是因为实体或者短语连接错误,一些限制type没有在连接过程中探测到;剩下6%是因为问题图生成有局限,一些问题找不到对应的策略去生成graph。

4. 总结

这项工作的主要创新点是把constraints和multi-hop结合起来解决,在生成query graph时,通过连接限定词来减少搜索域。我个人认为这篇文章没有太多给人耳目一新的地方,但是它很好地融合了前人的工作,并且对于query graph以及KBQA都做了详尽的解释,提出了extend,connect,aggregate等概念,把一些复杂问题简单化,很适合初次接触这个领域的人看。

代码语言:javascript
复制
下载一:中文版!学习TensorFlow、PyTorch、机器学习、深度学习和数据结构五件套!后台回复【五件套】
下载二:南大模式识别PPT后台回复【南大模式识别】

推荐两个专辑给大家:

专辑 | 李宏毅人类语言处理2020笔记

专辑 | NLP论文解读

专辑 | 情感分析

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-09-26,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. 背景介绍
  • 2. 方法
  • 3. 实验与结果
  • 4. 总结
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档