前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >AAAI 2020 | 邵晨泽:非自回归机器翻译,基于n元组的训练目标(视频解读)

AAAI 2020 | 邵晨泽:非自回归机器翻译,基于n元组的训练目标(视频解读)

作者头像
AI科技评论
发布2020-02-21 14:50:28
6300
发布2020-02-21 14:50:28
举报

作者 | 邵晨泽

编辑 | Camel

本文是对计算所冯洋组和腾讯微信AI团队共同完成,被 AAAI2020 录用的论文《Minimizing the Bag-of-Ngrams Difference for Non-Autoregressive Neural Machine Translation》进行解读,相关工作已开源。

论文:https://arxiv.org/pdf/1911.09320.pdf 代码:https://github.com/ictnlp/BoN-NAT

论文简介:

非自回归神经机器翻译模型(NAT)对目标词的生成进行独立的建模,从而显著地提升了翻译速度。然而,对非自回归模型来说,词级别的交叉熵损失函数不合理地要求模型输出与参考译文严格对齐,并且无法准确地建模目标端的序列依赖关系,从而导致其与模型翻译质量的相关性较弱。

基于n元组袋的训练目标

在本文中,我们提出了基于模型与参考译文间n元组袋差异的训练目标,以该训练目标来训练非自回归模型。我们克服了指数级搜索空间和n元组袋维度巨大的困难,给出了计算n元组袋差异的高效算法,使这个基于n元组袋的训练目标具有可导、高效、易于实现的优点。我们在三个机器翻译数据集上进行了实验验证,结果表明,我们的方法在WMT14英语-德语数据集上取得了约5.0个BLEU值的大幅提升,在另外两个数据集上也有显著提升。

(或者到AI研习社官网观看更多AAAI 2020 论文解读视频:http://www.mooc.ai/open?from=meeting)

文字版解读:计算所&微信AI:改进训练目标,提升非自回归模型翻译质量(已开源)

关注「AI科技评论」微信公众号,后台回复「邵晨泽@AAAI2020」下载讲解 PPT。

作者简介:

邵晨泽,中国科学院计算技术研究所2018级直博生,研究方向为自然语言处理、机器翻译等,博士期间在自然语言处理顶级会议上发表多篇论文,两篇关于非自回归模型的工作分别发表于ACL2019、AAAI2020。


本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-01-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档