首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

清华大学:基于实体的神经信息检索模型-理解实体在神经信息检索模型中的作用

你和“懂AI”之间,只差了一篇论文

号外!又一拨顶会论文干货来袭!

2018年6月9-10日,代表学术界和工业界的顶级交流盛会——由中国中文信息学会青年工作委员会和百度公司联合举办的【“AIS2018(ACL、IJCAI、SIGIR)论文预讲会”】在北京盛大举行。两天时间内,来自“情感分析”“推荐系统”“机器问答”“对话系统”等不同主题的顶级会议论文报告汇聚一堂,英雄相惜,华山论剑。

据芯君了解,本次预讲会在学术圈的火爆程度完全超出了主办方的想象,开放报名的短短几天就全面满额了,以至于主办方不得不设定条件筛选参会者。

读芯君作为本次预讲会的活动媒体,将全程跟随大会,为大家全程纪录活动中最前沿的观点,最有价值的成果,并特邀预讲会论文报告者联合为读者朋友们推出预讲会系列组文,向你展示顶会最新论文成果。

这是读芯术解读的第53篇论文

作者:刘正皓,熊辰炎,孙茂松,刘知远

ACL 2018

基于实体的神经信息检索模型:理解实体在神经信息检索模型中的作用

Entity-Duet Neural Ranking: Understanding the Role of Knowledge Graph Semantics in Neural Information Retrieval

清华大学

Tsinghua University

在本文中,我们提出了一种融合知识的神经信息检索方法(Entity-Duet Neural Ranking Model, EDRM),目的是使用人类的先验知识(Knowledge Graph)来增强神经检索模型的结果。

当前的神经信息检索模型(Neural Information Retrieval, Neural-IR)可以大致被分为两种:一种是基于表示的神经网络信息检索模型(Representation-based);另一种是基于交互的神经信息检索模型(Interaction-based)。Xiong等人提出了基于kernelpooling的交互的神经信息检索模型(K-NRM); Dai 等人基于K-NRM提出了Conv-KNRM,利用CNN整合n-gram的信息,并达到了当前的最好水平。

基于实体的信息检索模型(Entity-oriented Information Retrieval)是基于人类的先验知识,将知识图谱的信息融合进信息检索模型中。当前的工作都是得到更好的问题、文档的表示,或者通过实体建立问题-文档的隐含关系来增强信息检索效果。但当前基于实体的信息检索模型都是基于人工特征应用到传统的信息检索模型中。因此在本文中我们使用信息抽取的方法,首次将知识结合到神经信息检索模型中,使得模型具有更好的效果以及泛化能力。

基于以上,我们针对Interaction-based Ranking Model提出了Entity-Duet Neural Ranking Model(EDRM)。在EDRM模型中,每一个问题以及文档中的实体包含三种不同的语义表示:实体向量(EntityEmbedding),描述向量(Description Embedding)和类型向量(Type Embedding),并线性组合成增强实体表示(Enriched-entityEmbedding)。为了更好的融合词级别以及实体级别的信息,我们提出了Neural Entity-Duet Framework,其中包含四种交互矩阵:问题词语-文档词语、问题词语-文档实体、问题实体-文档词语、问题实体-文档实体。通过神经网络的方法利用用户的点击信息端到端的训练优化。

我们在实验中通过将EDRM整合到两个state-of-the-art的基于交互的神经信息检索模型中(K-NRM以及Conv-KNRM),使用和K-NRM相同的实验设置,训练采用DCTR推断出的label进行训练,并设置三个测试场景:

Testing-SAME:测试采用DCTR推断出的label;

Testing-DIFF: 测试时使用TACM推断出的label;

Testing-RAW:测试时采用MRR来测试最符合文档的排序结果。

通过表1我们可以看到相比较我们主要的基线模型(K-NRM和Conv-KNRM)来讲,模型在Testing-DIFF和Testing-RAW上面有更好的表现,证明模型具有更好的泛化能力。

接下来我们验证了实体在检索模型中的作用(如图3和图4所示)。首先从图3可以看出,SoftMatch所占比例远远高于Exact Match,这与K-NRM以及Conv-KNRM的结果一样,证明相比较传统的Exact Match来讲Soft Match更加重要;接下来我们可以看到cross-space以及entity-word之间的交互占了较大比重,从而证明了crossmatch 以及word-entity level match的有效性。

为了进一步探究词语的n-gram和entity之间的交互比重,我们得到了图4所示的结果,从结果可以看到权重基本都是均匀分布,从而进一步证明了n-gram以及加入entity的必要性。

模型的提升主要是来源他的泛化能力,因此我们进一步分析其原因。首先我们做了消融实验,如表2所示。从表中可以看出,实体的描述对于增强模型的泛化能力有很大帮助,加入三种语义元素后对于模型的效果从不同方便有了一定提升。但是相对于Conv-KNRM来说,仅仅利用实体信息(EntityEmbedding)对于模型效果提升很不明显,我们认为,只考虑实体仅仅是一种更精确的n-gram model,在这里Conv-KNRM已经学的很好。

为了进一步探究实体对于检索模型的影响,我们测试了不同场景下的模型的表现(如图6),并发现模型在基线模型比较难做对的问题以及短的问题上,效果更加明显,这进一步说明了引入实体的重要性。

最后我们做了样例分析如表3所示。首先,实体描述能够解释实体的含义。例如“美图秀秀网络版”和“美丽说”是两个分别提供图像处理和购物服务的网站。他们的描述提供了额外的检索信息,从而使得文本的表述得以增强。其次,实体类型可以在问题和文档之间建立深层联系。例如,不同问题中实体“蜡笔小新”和“银魂”是共享相同的实体类型;在问题和文档中,也是有这种隐藏的关联,比如:“鲁大师”和“系统优化”。

本文首次将知识融合到信息检索模型,证明了模型的效果以及泛化能力,进一步的验证了实体的重要性以及模型取得泛化能力的原因。

留言 点赞 发个朋友圈

我们一起探讨AI落地的最后一公里

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180610G0HFNL00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券