前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >腾讯AI平台孟凡东COLING 2016论文报告摘要

腾讯AI平台孟凡东COLING 2016论文报告摘要

作者头像
腾讯高校合作
发布2018-03-21 10:50:18
1K0
发布2018-03-21 10:50:18
举报
文章被收录于专栏:腾讯高校合作腾讯高校合作

COLING 2016

日本·大阪 12.11-12.16

国际计算语言学会议(International Conference on Computational Linguistics,简称COLING),是自然语言处理和计算语言学领域的重要国际学术会议,每两年召开一次。本次是第26届国际计算语言学会议(即COLING-2016)于12.11-12.16日在日本大阪举行。

腾讯AI平台孟凡东博士报告独家报道

本次会议的有效投稿数为1039篇,有337篇论文被录用,接收率是32%。论文的报告形式分为Oral和Poster两种,其中有135篇论文以Oral报告的形式被录取,占比接近13%。腾讯AI平台孟凡东博士有一篇题为《Interactive Attention for Neural Machine Translation》的论文以Oral报告的形式被录取,于12月15日下午17点30分在大阪国际会议中心12层的Conference Hall作报告(报告+提问环节一共约30分钟),过程中有众多学者表现出浓厚兴趣。

报告概要

论文《Interactive Attention for Neural Machine Translation》提出了交互式注意力模型,以缓解神经机器翻译中的漏翻译和重复翻译问题,在多个中英翻译测试集上,显著提升了神经机器翻译的效果(BLEU值)。基于注意力模型的神经机器翻译是目前的研究热点,深受学术界和工业界的青睐。然而,传统的基于注意力模型的神经机器翻译并没有一个直接有效的机制来确保翻译的完整性,因此会导致翻译的结果存在漏翻译和重复翻译的现象。一些学者从翻译覆盖的角度建模,提出了一些改进的注意力模型,而本文从Memory读写的角度出发,借鉴神经图灵机的思想,提出了改进的注意力模型----交互式注意力模型。交互式注意力模型的特点是在翻译的过程中,可以根据当前的翻译状态动态地修改源语言句子的表示(Memory),因此翻译解码器在每一步的翻译过程中所看到的源语言句子表示是不同的,这一点与传统的注意力模型(源语言句子表示经过编码器编码之后就固定不变了)有本质的不同。这种对Memory的读写机制,使得翻译解码器能够根据已翻译的状态修改源语言句子的表示,从而更容易记住翻译过程中的注意力历史,帮助解码器更准确地判断源语言句子哪些部分还没有翻译、哪些部分已经翻译过了,以缓解漏翻译和重复翻译问题,提升翻译效果。

更多AI领域国际会议快讯,随时follow我们哟!

明年见!

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-12-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 腾讯高校合作 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
机器翻译
机器翻译(Tencent Machine Translation,TMT)结合了神经机器翻译和统计机器翻译的优点,从大规模双语语料库自动学习翻译知识,实现从源语言文本到目标语言文本的自动翻译,目前可支持十余种语言的互译。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档