学习
实践
活动
工具
TVP
写文章

ACL 2018 五篇最佳论文公布

前言

ACL 2018(56th Annual Meeting of the Association for Computational Linguistics)将于2018年7月15日至20日在澳大利亚墨尔本召开,该会议 Accept的论文已经在官网上发布出来。

ACL 2018

ACL 作为自然语言处理方面的顶级会议之一,其中很多工作代表了NLP的前沿方向,因此,其中很多文章非常值得学习和借鉴,今天,跟大家分享一下2018年ACL的最佳论文[1]。

ACL 2018 最佳论文分成两类:最佳长论文和最佳短论文。其中评选出 3篇最佳长论文和 2篇最佳短论文,总计 5篇最佳论文。

官网信息如下:

Best Papers

The ACL 2018 organising committee is please to announce the following best papers:

Best Long Papers

Finding syntax in human encephalography with beam search. John Hale, Chris Dyer, Adhiguna Kuncoro and Jonathan Brennan.

Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information. Sudha Rao and Hal Daumé III.

Let’s do it “again”: A First Computational Approach to Detecting Adverbial Presupposition Triggers. Andre Cianflone, Yulan Feng, Jad Kabbara and Jackie Chi Kit Cheung.

Best Short Papers

Know What You Don’t Know: Unanswerable Questions for SQuAD. Pranav Rajpurkar, Robin Jia and Percy Liang

‘Lighter’ Can Still Be Dark: Modeling Comparative Color Descriptions. Olivia Winn and Smaranda Muresan

Amusi简单对上述ACL 2018 最佳论文进行整理,具体如下:

最佳长论文

1. Finding syntax in human encephalography with beam search

作者:John Hale、Chris Dyer、Adhiguna Kuncoro、Jonathan Brennan

Abstract:递归神经网络语法(RNNG)是依赖于神经网络来评估派生选择的(树,串)对的生成模型。 使用波束搜索与它们解析会产生各种增量复杂性度量,例如单词惊讶和解析器动作计数。当用作对自然文本的人类电生理反应的回归因子时,它们得到两种幅度效应:早期峰值和P600样后期峰值。相反,非句法神经语言模型不会产生可靠的效果。模型比较将早期峰值归属于RNNG内的句法组成。这种结果模式推荐RNNG +波束搜索组合作为在正常人类语言理解期间发生的句法处理的机制模型。

arXiv: https://arxiv.org/abs/1806.04127

2. Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information

作者:Sudha Rao、Hal Daumé III 均来自于马里兰大学帕克分校。

Abstract:查询是沟通的基础,机器不能有效地与人类协作,除非他们可以提出问题。 在这项工作中,我们建立了一个神经网络模型来排列澄清性问题。我们的模型受到expected value of perfect information启发:一个很好的问题是其预期答案将会有用的问题。 我们使用来自StackExchange的数据来研究这个问题,StackExchange是一个丰富的在线资源,人们经常要求向帖子澄清问题,以便他们能够更好地为原始海报提供帮助。 我们创建了一个澄清问题的数据集,这个问题由77K个帖子组成,配对来自StackExchange的三个域:澄清问题(和答案):askubuntu,unix和超级用户。 我们根据专家人类判断评估了该数据集的500个样本的模型,并证明了其在控制基线方面的重大改进。

arxiv:https://arxiv.org/abs/1805.04655

3. Let’s do it “again”: A First Computational Approach to Detecting Adverbial Presupposition Triggers

作者:Andre Cianflone、Yulan Feng、Jad Kabbara、Jackie Chi Kit Cheung,来自于麦吉尔大学和 MILA。

Abstract:在这篇论文中,我们提出一个检测状语预设的触发器的任务,例如“also”或“again”这类词。解决个任务需要在话语语境中检测重复或类似的事件,可以应用在自然语言生成任务(例如总结和对话系统)任务。我们为该任务创建了两个新的数据集,数据来源于Penn Treebank和Annotated English Gigaword两个语料库,以及为此任务量身定制的新的注意力机制。我们的注意力机制增加了一个基线递归神经网络,而且不需要额外的可训练参数,从而最大限度地减少了计算成本。我们的工作证明,我们的模型在统计学上优于一些基线模型,包括基于LSTM的语言模型。

pdf: https://www.cs.mcgill.ca/~jkabba/acl2018paper.pdf

最佳短论文

1. Know What You Don’t Know: Unanswerable Questions for SQuAD.

作者:Pranav Rajpurkar、Robin Jia、Percy Liang

Abstract:抽取式阅读理解系统(Extractive reading comprehension systems)通常可以在上下文文档中找到问题的正确答案,但他们也倾向于对上下文中没有提到正确答案的问题做出不可靠的猜测。现有的数据集要么专注于可回答的问题,要么使用自动生成的易于识别的无法回答的问题。为了解决这些弱点,我们提供了斯坦福问答数据集(SQuAD)的最新版本SQUAD 2.0。 SQuAD 2.0将现有的SQUAD数据与由群众工作人员撰写的50,000多个无法回答的问题结合起来,看起来类似于可回答的问题。 为了在SQuAD 2.0上做得好,系统不仅必须在可能的时候回答问题,而且还要确定段落不支持答案并且不回答问题。 SQuAD 2.0对现有模型来说是一项具有挑战性的自然语言理解任务:在SQuAD 1.1上获得86%F1的强大神经系统在SQuAD 2.0上仅获得66%F1。

arxiv:https://arxiv.org/abs/1806.03822

2. ‘Lighter’ Can Still Be Dark: Modeling Comparative Color Descriptions.

作者:Olivia Winn、Smaranda Muresan

注:本论文尚未公开

参考

[1] https://acl2018.org/2018/06/10/best-papers/

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180613B0B1UF00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注腾讯云开发者

领取腾讯云代金券