学界 | 一窥 ACL 2018 最佳论文

AI 科技评论按:随着定于 7 月 15 日的开会日期逐渐临近,自然语言处理顶会 ACL 2018 继公开了接收论文名单之后,今天也公布了包含 3 篇长论文 与 2 篇短论文的最佳论文获奖名单。

其实 ACL 2018 的流程设计与去年有所不同。ACL 2017 会前首先公布了 22 篇 outstanding 论文(可以看作最佳论文的预选论文),其中长论文 15 篇、短论文 7 篇;接着正会开始后这 22 篇论文分在四个不同的论文报告 session 中演讲,然后在最后一天的颁奖典礼上公布了最终的最佳论文奖得主。当时在 ACL 2017 做现场报道的我们雷锋网记者岑大师听了论文报告之后就对最佳论文得主做了自己的预测,果然猜中。(可惜今年就没有必要猜啦)

说回 ACL 2018,ACL 2018 组委会于 6 月 10 日直接在官网发出公告,公布了今年 5 篇最佳论文的评选结果。不过截止发稿时只有其中 2 篇论文的内容是公开的,另外 3 篇论文的介绍请等待 AI 科技评论后续报道。

最佳论文 - 长论文(3 篇)

Finding syntax in human encephalography with beam search

  • 用束搜索在人脑成像中寻找句法
  • (论文内容尚未公开)
  • 作者之一的 Jonathan Brennan 来自密歇根大学文学、科学与艺术学院计算神经语言学实验室

Learning to Ask Good Questions: Ranking Clarification Questions using Neural Expected Value of Perfect Information

  • 学习如何问好的问题:通过完全信息下的期待值为追问问题排序
  • 论文摘要:在沟通中,提问是一大基本要素:如果机器不知道如何问问题,那它们也就无法高效地与人类合作。在这项研究中,作者们构建了一个神经网络用于给追问的问题做排名。作者们模型设计的启发来源于完全信息情况下的期待值:一个可以期待获得有用的答案的问题就是一个好问题。作者们根据 StackExchange 上抓取的数据研究了这个问题;StackExchange 是一个内容丰富的在线咨询平台,其中有人发帖咨询以后,别的用户会在下面追问起到解释澄清作用的问题,以便更好地了解状况、帮助到发帖人。论文作者们创建了一个由这样的追问问题组成的数据集,其中包含了 StackExchange 上 askubuntu、unix、superuser 这三个领域的约 77k 组发帖+追问问题+问题的回答。作者们在其中的 500 组样本上评估了自己的模型,相比其他基准模型有显著的提高;同时他们也与人类专家的判断进行了对比。
  • 论文地址:https://arxiv.org/abs/1805.04655
  • 论文作者来自马里兰大学与微软研究院

Let's do it "again": A First Computational Approach to Detecting Adverbial Presupposition Triggers

  • 让我们「再」做一次:首个检测假定状态触发副词的计算性方法
  • 论文摘要:这篇论文中,作者们介绍了一种新的研究课题——预测副词词性的假定状态触发语(adverbial presupposition triggers),比如「also」和「again」。完成这样的任务需要在对话上下文里寻找重复出现的或者相似的内容;这项任务的研究成果则可以在文本总结或者对话系统这样的自然语言生成任务中起到帮助。作者们为这项任务创造了两个新的数据集,分别由 Penn Treebank 和 AnnotatedEnglish Gigaword 生成,而且也专为这项任务设计了一种新的注意力机制。作者们设计的注意力机制无需额外的可训练网络参数就可以增强基准 RNN 模型的表现,这最小化了这一注意力机制带来的额外计算开销。作者们在文中表明,他们的模型相比多个基准模型都有统计显著的更高表现,其中包括基于 LSTM 的语言模型。
  • 论文地址:https://www.cs.mcgill.ca/~jkabba/acl2018paper.pdf
  • 这篇论文来自加拿大麦克吉尔大学(McGill University)与蒙特利尔算法学习人工智能实验室(MILA)

最佳论文 - 短论文(2 篇)

Know What You Don't Know: Unanswerable Questions for SQuAD

  • 知道你不知道的:SQuAD 中无法回答的问题
  • (论文内容尚未公开,不过看标题就觉得很有意思)
  • 这篇论文来自斯坦福自然语言小组(Stanford NLP Group),作者之一的副教授 Percy Liang 是 NLP 领域著名的研究员,我们也曾报道过他的论文《先打草稿可以生成更高质量的文本,Percy Liang新论文广受赞誉》

'Lighter' Can Still Be Dark: Modeling Comparative Color Descriptions

  • “打火机”也可能是黑暗的:建模比较性的颜色描述
  • (论文内容尚未公开)
  • 这篇论文来自哥伦比亚大学

最佳论文公告参见 https://acl2018.org/2018/06/10/best-papers/

更多 ACL 2018 及其他重要学术会议报道,请继续关注 AI 科技评论。

本文分享自微信公众号 - AI科技评论(aitechtalk)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2018-06-10

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏新智元

CVPR 2018:用GAN预测20年后你长什么样

30730
来自专栏机器之心

爱奇艺蒙版AI:弹幕穿人过,爱豆心中坐

作为(伪)AI 行业从业者,之心编辑部里的小伙伴们自认都能够以不错的置信度人工识别「人工智能与人工智障」。但是,当我把下面这张爱奇艺 app 的截图放在大家面前...

17050
来自专栏量子位

谷歌新竞赛:在欧美长大的AI,也要认识亚非拉的生活丨可参加NIPS

于是,谷歌今年决定要“众筹”一只天生思维开阔、想象力丰富的AI,即使它只见过欧美人的生活,也要扩展到全球各地各种文化中去。

8530
来自专栏AI科技评论

SQuAD2.0来了!现在这里有了机器「无法回答的问题」

AI 科技评论按:斯坦福大学 NLP 组(Stanford NLP Group)昨晚发出公告,文本理解挑战赛 & 数据集 SQuAD 升级为 SQuAD 2.0...

47820
来自专栏腾讯技术工程官方号的专栏

腾讯AI Lab开源大规模高质量中文词向量数据,800万中文词随你用

? 今日,腾讯AI Lab 宣布开源大规模、高质量的中文词向量数据。该数据包含800多万中文词汇,相比现有的公开数据,在覆盖率、新鲜度及准确性上大幅提高,为对...

7K150
来自专栏LET

谈谈随机数

249110
来自专栏用户2442861的专栏

熵与生命 概率

https://yjango.gitbooks.io/superorganism/content/shang_yu_sheng_ming.html

33510
来自专栏量化投资与机器学习

【Matlab量化投资】基于神经网络的利率债16国开10收益率预测模型

以往大家接触的量化投资与机器学习在股票和期货上运用的较多,然而大家却忽略了一个重要的金融市场,那就是债券市场。今天小编就告诉大家机器学习在债券市场上的运用。在机...

37490
来自专栏AI研习社

你实践中学到的最重要的机器学习经验是什么?

在知乎看到「你实践中学到的最重要的机器学习经验是什么?」这个问题,相信经验对于许多刚准备入门机器学习的同学来说是必不可少的,因此AI研习社选取了3个精华回答给到...

33030
来自专栏WeaponZhi

机器学习股票价格预测从爬虫到预测-预测与调参

上篇文章我们进行了黄金行情数据爬取,并对黄金数据进行了一波花式分析,这篇文章我们将用我们之前的文章所用过的策略进行黄金价格的分析,并通过分析,优化我们的代码,提...

20260

扫码关注云+社区

领取腾讯云代金券