前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >资源 | 清华大学开源神经机器翻译工具包THUMT

资源 | 清华大学开源神经机器翻译工具包THUMT

作者头像
机器之心
发布2018-05-08 15:45:30
5080
发布2018-05-08 15:45:30
举报
文章被收录于专栏:机器之心机器之心机器之心

选自arXiv

参与:李泽南

机器翻译是自然语言处理的重要组成部分,其目的是使用计算机自动将文本翻译成其他语言的形式。近年来,端到端的神经机器翻译发展迅速,已经成为机器翻译系统的新主流。近日,清华大学自然语言处理组发布了机器翻译工具包 THUMT,为业内人士的研究和开发工作提供了便利。

工具链接:http://thumt.thunlp.org/

THUMT 是用于神经机器翻译的开源工具包,构建于 Theano 之上,它具有以下特点:

  • 基于 Attention 的翻译模型:THUMT 应用了标准的 attention 编码器-解码器框架。
  • 最小风险训练:除了标准最大似然估计(MLE)之外,THUMT 还支持最小风险训练(MRT),其目的是找到一组模型参数,以最小化使用训练数据评估指标(如 BLEU)计算的预期损失。
  • 使用单一语言语料库:THUMT 为 NMT 提供了半监督训练(SST)能力,能够利用丰富的单语语料库资源来改善源-目标和目标-源 NMT 模型的学习。
  • 可视化:为了让人们了解 NMT 的内部工作机制,THUMT 提供了一个可视化工具来展示运行的每个中间状态,以及相关语境之间的相关性。

论文:THUMT: An Open Source Toolkit for Neural Machine Translation

论文链接:https://arxiv.org/pdf/1706.06415.pdf

该论文介绍了清华大学自然语言处理小组开发的 THUMT 神经机器翻译开源工具包。THUMT 在 Theano 上层实现了标准的基于注意的编码器-解码器框架,并且支持三种训练标准:最大似然估计、最小风险训练和半监督训练。它的特点是有一个可视化工具,演示神经网络和语境单词隐藏态间的关联,从而帮助分析 NMT 的内部工作机制。在中英数据集上的实验显示 THUMT 使用最小风险训练极大的超越了 GroundHog 的表现,它也是 NMT 的一个顶尖工具包。

THUMT 实现的模型是标准的基于注意的 NMT 模型 (Bahdanau et al., 2015),在 Theano 之上 (Bergstra et al., 2010)。

THUMT 支持三个优化器:

  • SGD:标准随机梯度下降,具有固定学习速率。
  • Adadelta(Zeiler,2012):根据历史,随时间动态调整学习速率。
  • Adam(Kingma and Ba, 2015):为每个参数计算不同的学习速率。THUMT 使用修正版本的 Adam 来解决 NaN 问题。

图 1:神经机器翻译的可视化

表 1:GroundHog 和 THUMT 之间的对比

表 2:MLE 和 SST 之间的对比

表 3:替代未知单词的效果

表 4:MLE、MRT、SST 训练时间对比

在该工具发布的论文中,研究人员已证明最小风险训练可以提高最大似然估计的效果,同时,半监督训练能够利用单一语言语料库来改善缺乏资源的翻译任务。

本文为机器之心编译,转载请联系本公众号获得授权。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-06-22,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器之心 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档