首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

百篇最值得一读的“认知图谱”经典论文

当你站在人脸识别门禁闸口,扫脸,绿灯亮通过,就可以任意进出宿舍楼、图书馆、教学区等各种校内场所,你也许会想:机器认识我吗?

实际并非如此。当前的 AI 识别能做的只是比对,它缺少信息进入大脑之后的加工、理解、思考步骤,因此仅仅停留在感知阶段,而并非“认知”。而这种以感知智能技术为主的人工智能,无论是在智能理解能力还是安全性方面,与人类智能都相去甚远。

想要让人工智能有类似大脑的活动,走到认知阶段,需要让它掌握知识、进行推理。机器必须要掌握大量的知识,特别是常识知识才能实现真正类人的智能。所以,“理解”与“解释”是 AI 需要攻克的下一个挑战,而认识图谱为“可解释的 AI”提供了全新的视角和机遇。

“Knowing yourself is the beginning of all wisdom.”亚里士多德的这句话,正是认知图谱使命最好的概括。

那么,想深入学习和研究认知图谱,研读该领域的经典论文,对于研究者和从业者都必不可缺。经过我们对人工智能领域国际顶会/期刊中“认知图谱”相关关键词论文的计算,以及热心读者徐菁博士的整理,AMiner 推出了 100 篇认知图谱经典必读论文。这些论文可以说基本都是经典中的经典,他们多是领域大佬+顶级会议的组合,读完它们,相信你对认知图谱的认认识肯定会有质的飞越。

此外,AMiner 还为你特别准备了“一键综述”服务,一键批量生成“论文综述”,另有“论文精读”加持,如此周到细致,还不赶紧来体验下。

该 List 除了整合了认知图谱领域的 100 篇经典论文,小脉还对这些论文进行了简要分析。

先来看看它们都出自哪些会议?根据对论文出处的分析,它们大多选自 NeurIPS、ICLR、ACL、EMNLP、IJCAI、AAAI 等机器学习与自然语言处理领域的国际顶会。

根据对这些经典论文发表年份的统计,近十年这些论文主要发表在 2016-2019 这四年间,占比达 60%;在 2014-2016 年间也有不少经典论文发表。

再来看看入选作者,有一位大佬有 4 篇论文入选,他正是 DeepMind 的研究科学家 Oriol Vinyals,在今年被评为 AI 2000 机器学习全球最具影响力学者之一。还有三位作者有 3 篇论文入选,他们分别是微软研究院合伙人研究经理高剑峰,佐治亚理工大学机器学习中心的教授宋乐,Facebook 研究科学家、纽约大学客座教授 Jason Weston,他们都是机器学习领域的大牛。另有 21 位作者都有 2 篇入选。

我们按照这 100 篇经典论文的被引量,挑选了其中的 10 篇作简单评述,供大家学习参考。

我们近期还会推出《认知图谱研究报告》,欢迎关注。

Neural Machine Translation by Jointly Learning to Align and Translate(ICLR 2015)

作者:Dzmitry Bahdanau,Kyunghyun Cho,Yoshua Bengio

单位:Jacobs University Bremen,Université de Montréal

引用量:9818

推荐理由:这篇论文的一作正是 Yoshua Bengio 的博士生 Dzmitry Bahdanau。文中首次提出在神经网络机器翻译(NMT) 中使用 Attention 的机制,可以使模型自动确定源句子中和目标词语最相关的部分,相比于基本 encoder-decoder 方法提高了翻译效果。该文提出的方法优化了神经机器翻译模型,其效果的提升对于长句子的翻译尤其明显。

Sequence to Sequence Learning with Neural Networks(NeurIPS2014)

作者:Ilya Sutskever,Oriol Vinyals,Quoc V. Le

单位:Google

引用量:8846

推荐理由:该文是谷歌发表于 2014 年 NeurIPS 的一篇神作,现已被广泛使用的 Sequence to Sequence 模型论文。文中基于多层的长短期记忆网络(LSTM),提出了一种对序列结构做最小假设的一般端到端序列学习方法,在长短句翻译方面均表现优异。

BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(NAACL-HLT 2019)

作者:Jacob Devlin,Ming-Wei Chang,Kenton Lee,Kristina Toutanova

单位:Google

引用量:2952

推荐理由:该论文提出的 BERT 模型被各地学者、媒体美誉为 NLP 新一代大杀器。文中提出了一种语言表达模型 BERT,即 Transformer 的双向编码表示,它通过考虑所有层整个上下文对为标注过的文本进行深度双向表达的预训练。实验结果证明,使用预训练过的 BERT 模型,仅仅在后面再包一层输出层,并对其进行微调训练,就可以取得不错的效果。BERT 在机器阅读理解顶级水平测试 SQuAD1.1中表现出惊人成绩:全部两个衡量指标上全面超越人类,并且还在 11 种不同 NLP 测试中创出最佳成绩。

Ontology Learning for the Semantic Web(IEEE 2001)

作者:Alexander D. Maedche,Steffen Staab

单位:University of Karlsruhe

引用量:2932

推荐理由:本文提出了一种利用半自动本体构建工具,扩展典型本体工程环境的本体学习框架。该框架包括本体的导入、提取、裁剪、细化和评价。实验结果表明,利用语义网和本体,该方法能够实现全面的、可移植的机器理解。

Effective Approaches to Attention-based Neural Machine Translation(EMNLP 2015)

作者:Thang Luong,Hieu Pham,Christopher D. Manning

单位:Stanford University

引用量:2866

推荐理由:该文是 NLP 大牛 Christopher D. Manning 与他的博士生 Thang Luong 等人的佳作。也是继 Bahdanau 等人提出 Attention 用于 NLP 的后续工作,作者提出了相对于之前工作的两种新的但却有效的注意力机制,全局注意力(global)和局部注意力(local)。其中,局部注意力机制的运用使得神经机器翻译模型远胜于非注意力机制模型(5个BLEU点)。在融合了各个注意力机制模型之后,它在英文翻译到德文的多项任务中取得了 SOTA 的结果。

Attention Is All You Need(NeurIPS2017)

作者:Ashish Vaswani,Noam Shazeer,Niki Parmar,Jakob Uszkoreit,Llion Jones,Aidan N. Gomez,Lukasz Kaiser,Illia Polosukhin

单位:Google,University of Toronto

引用量:2706

推荐理由:本篇文章的创新点在于抛弃了之前传统的 encoder-decoder 模型必须结合 CNN 或者 RNN 的固有模式,只用 Attention。文章提出一种基于注意机制的transformer模型,目的在于减少计算量和提高并行效率的同时不损害最终的实验结果。结果表明,它能更好地完成机器翻译任务,在质量上更优同时可并行化,所需的训练时间明显更少。

Translating Embeddings for ModelingMulti-relational Data(NeurIPS2013)

作者:Antoine Bordes,Nicolas Usunier,Alberto García-Durán,Jason Weston,Oksana Yakhnenko

单位:Universite de Technologie de Compi` egne (UTC),Google

引用量:1660

推荐理由:本文提出了 TransE,一种通过将关系解释为在实体的低维嵌入上操作的转换来建模关系的方法。尽管它很简单,但是这种假设被证明是强大的,因为大量的实验表明在两个知识库连接预测方面,TransE 明显优于目前最新的方法。它解决了多关系数据在低维向量空间中的嵌入问题,且模型易于训练,包含较少的参数,可以扩展到非常大的数据库。

Ontology Based Context Modeling and Reasoning using OWL(PerCom 2004)

作者:Xiaohang Wang,Daqing Zhang,Tao Gu,Hung Keng Pung

单位:National University of Singapore

引用量:1460

推荐理由:该文使用了 OWL 的基于本体的上下文建模和推理方法,在普适计算环境中建模上下文,并支持基于逻辑的上下文推理。

A Neural Attention Model for Abstractive Sentence Summarization(EMNLP 2015)

作者:Alexander M. Rush,Sumit Chopra,Jason Weston

单位:Facebook

引用量:1229

推荐理由:该文是神经网络用于生成式模型的开篇之作,作者提出了利用 Gigaword 构建大量平行句对的方法,使得利用神经网络训练成为可能,之后多篇工作都使用了该方法构建训练数据。实验结果表明,该方法使得文本文摘的性能提升,容易进行端到端训练,并可扩展到大量的训练数据。

Reasoning With Neural Tensor Networks for Knowledge Base Completion(NeurIPS2013)

作者:Richard Socher,Danqi Chen,Christopher D. Manning,Andrew Y. Ng

单位:Stanford University

引用量:1043

推荐理由:这篇论文是是吴恩达与曼宁团队的佳作。这篇论文主要创新点表现在,相比前人在知识库里使用实体去预测关系,作者引入了一个损失函数为双线性的三层神经网络(NTN)模型,并且对于实体向量初始化的处理采用非监督模型训练得到的词向量的平均值,大大提高了系统的准确率。

看完了以上佳作,更多经典论文请进入“认知图谱”专题页查看。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200514A09RTC00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券