首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Effective Deep Memory Networks for Relation Extraction

Citation:Zeng, D., Liu, K., Chen, Y., & Zhao, J. (2015). Distant Supervision forRelation Extraction via Piecewise Convolutional Neural Networks. Proceedings ofthe 2015 Conference on Empirical Methods in Natural Language Processing,(September), 1753–1762. https://doi.org/10.18653/v1/D15-1203

动机

本文将高效深度记忆网络应用于远程监督的关系抽取,基于的观察有两点:

(1)句子中实体对的上下文单词对于判断其关系的重要性是不同的;

(2)不同的关系之间存在依存关系;

本文提出的模型包括两个基于注意力的记忆神经网络,第一个是单词级别的记忆网络,用于句子中不同单词的权重学习,每个单词的权重与两个实体有关;第二个是关系级别的基于注意力的记忆神经网络,用于学习不同句子实例的权重和关系间的依存关系。

实验结果表明本文提出的方法比现有最好的方法有较大提升。

贡献

(1)本文提出一个包含两个记忆网络的神经网络架构,能够建模每个单词与两个实体的语义相关性和关系间的依存关系;

(2)本文提出的方法在真实数据集上超过所有已有方法;

方法

文章提出的神经网络模型包括三个模块:(1)单词级别的记忆网络,用于表示句子中实体对的上下文信息,即生成每个句子包含的实体对信息的向量;(2)关系级别的记忆网络,用于将实体对对应的句子集表示成相对于每一种关系的向量表示;(3)输出层,以句子集相对于每一种关系的向量表示作为输入,得到实体在各种关系上的可能性;

下面着重介绍单词级别的记忆网络和关系级别的记忆网络:

单词级别的记忆网络

单词级别的记忆网络如上如左下角所示,以句子作为输入,生成表示句子的向量。模型流程为:

(1)以句子作为记忆神经网络的输入,其中实体的上下文单词做为外部记忆memory,实体单词作为第一个隐藏层的输入;

(2)第一个隐藏层使用包括两个部分,其一是注意力网络,得到memory中每个单词相对于实体单词的重要性权重,其二是对对输入的分线性变换,两者相连接作为下一个隐藏层的输入;

(3)后面的几个隐藏层同第一个隐藏层的结构类似,多层累积形成深度的记忆网络,从而提取出memory中更抽象的实体信息;

(4)使用卷积神经网对句子提取特征,得到句子的特征表示;

(5)将记忆神经网络与卷积神经网络的输出相结合,得到句子的最终表示。

关系级别的记忆网络

关系级别的记忆网络如上如右下角所示,以句子向量的集合作为输入,对于每一种关系输出一种句子集合的表示。关系级别的记忆网络的模型流程为:

(1)将句子向量序列输入第一层注意力网络,得到每个句子的重要性权重,并对句子向量加权求和,得到句子集合的初步表示;

(2)使用各种关系的初步集合表示输入关系级别的注意力网络,学习各种关系间的依存关系,得到句子集合相对于每一种关系的表示。

实验

本文实验采用的数据集是在(Rediel et al, 2010)数据集基础上过滤的数据集,数据集的情况如下表:

文章进行了heldout实验,并与当时已有的其他方法做对比,结果如下图,可见本文的方法整体优于当前已有的其他方法。

文章为了验证两个记忆网络的作用,分别去掉两个记忆网络进行试验,结果如下图所示,可见去掉任何一个记忆网络都会降低模型的性能,因此两中记忆网络对模型的提升都是重要的。

论文笔记整理:刘兵,东南大学博士,研究方向为自然语言处理、机器学习。

OpenKG.CN

中文开放知识图谱(简称OpenKG.CN)旨在促进中文知识图谱数据的开放与互联,促进知识图谱和语义技术的普及和广泛应用。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171229G0ROZR00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券