首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器翻译语料数据太少怎么破?今日头条、南大提出基于镜像生成的NMT新模型

机器翻译系统中,非平行数据的训练和解码一直是个挑战。不久前,今日头条和南京大学联合提出了基于镜像生成的NMT,它是一个统一的体系结构,包含目标-源转换模型、源-目标转换模型和两个语言模型,翻译模型和语言模型在同一个隐语义空间,因此,两个翻译方向都可以有效地从非平行数据中学习,对于提升翻译质量非常重要。该论文已被ICLR2020录用。本文是AI前线第106篇论文导读,我们将对这项研究工作进行详细解读。

概览

神经机器翻译(NMT)系统在有大量双语平行数据可供训练的情况下,提供了相当不错的翻译结果。但是,在大多数机器翻译场景中,获得如此大量的平行数据并不容易。例如,有许多low-resource语言对(如,英语到泰米尔语),它们缺乏足够的平行数据用于训练。此外,由于测试域和训练用的平行数据之间存在较大的域差异,如果域内平行数据(如医学域)有限,通常很难将NMT模型应用到其他域。在这些平行双语数据不充分的情况下,充分利用非平行双语数据(通常获取成本很低)对于获得令人满意的翻译效果至关重要。

我们认为,在训练和解码阶段,目前利用非平行数据的NMT方法并不一定是最好的。对于训练,反向翻译(Sennrich等人,2016)对于单语数据是利用最广泛的方法。但是,反向翻译对机器翻译模型的两个方向分别进行了更新,并不是最有效的。

具体来说,在给定源语言的单语数据x和目标语言的单语数据y的情况下,反向翻译通过应用tgt2src翻译模型(TMy→x),利用y得到预测的译文xˆ。然后利用伪翻译对⟨xˆ,y⟩更新src2tgt翻译模型(TMx→y)。x可以用同样的方式更新TMy→x。注意这里TMy→x和TMx→y是独立的和最新的。也就是说,TMy→x的每一次更新都不会直接对TMx→y有益处。一些工作像联合反向翻译和对偶学习引入迭代训练,使TMy→x和TMx→y隐式、迭代地相互受益。但是这些方法中的翻译模式仍然是独立的。理想情况下,如果我们有相关的TMy→x和TMx→y,则非平行数据的收益可以被放大。在这种情况下,每次更新TMy→x后,我们可以直接得到更好的TMx→y,反之亦然,从而更有效地利用非平行数据。

在解码方面,一些相关工作(Gulcehre等人,2015年)建议将外部语言模型LMy(单独针对目标单语数据进行训练)插入到翻译模型TMx→y中,其中包括来自目标单语数据的知识,以便更好地翻译。这对于领域适应特别有用,因为我们可以通过更好的LMy获得更适合领域(例如,社交网络)的翻译输出。然而,在解码时直接插入一个独立的语言模型可能不是最好的。首先,这里使用的语言模型是外部的,仍然独立于翻译模型学习,因此两个模型可能无法通过简单的插值机制(甚至冲突)很好地协作。此外,语言模型只包含在解码中,而在训练中不考虑。这就导致了训练和解码的不一致性,从而影响了系统的性能。

本文提出了镜像生成NMT(mirror generative NMT,MGNMT)来解决上述问题,有效地利用NMT中的非平行数据。MGNMT提出在统一的框架下联合训练翻译模型(TMx→y和TMy→x)和语言模型(LMx和LMy),这是非常重要的。受生成NMT(Shah&Barber,2018)的启发,我们提出引入一个在x和y之间共享的隐语义变量z。我们的方法利用对称性或镜像特性,分解条件联合概率p(x,y | z),即:

MGNMT的图模型如图1所示。MGNMT通过一个共享的隐语义空间将两种语言中的双向翻译模型和语言模型对齐(图2),以便所有这些模型都是相关的,并且在给定z的情况下成为条件无关的。在这种情况下,MGNMT具有以下优点:

  1. 在训练中,由于z是一个桥梁,TMy→x和TMx→y不是独立的,因此一个方向的每次更新都会直接有利于另一个方向,就像“1+1>2”的效果一样。这提高了使用非平行数据的效率。(第3.1节)
  2. 对于解码,MGNMT可以自然地利用其内部的目标侧语言模型,该模型是与翻译模型共同学习的。他们共同为更好的生成过程做出了贡献。(第3.2节)

注意,MGNMT与对偶学习和联合反向翻译(Zhang 等人,2018)是正交的。MGNMT中的翻译模式是相互依赖的,两种翻译模式可以直接相互促进。不同的是,对偶学习和联合翻译的方法是有效的,而且这两种方法也可以用来进一步提高MGNMT。对偶学习中使用的语言模型面临着与(Gulcehre等人,2015年)同样的问题。给定GNMT,所提出的MGNMT也是有意义的。GNMT只有一个源端语言模型,因此它不能像MGNMT那样增强解码。此外,在(Shah&Barber,2018),他们要求GNMT在翻译模型之间共享所有参数和词汇,以便利用单语数据,而这并不最适合远距离语言对。我们将在有关工作中作更多的比较。

实验表明,MGNMT在平行双语数据上具有很强的竞争力,而MGNMT在非平行数据上具有很强的训练能力,在不同的场景和语言对下,包括资源丰富的场景和资源贫乏的场景下,MGNMT在低资源的语言翻译上均优于多个强基线跨域翻译。此外,我们还发现,当MGNMT的联合学习翻译模式和语言模式协同工作时,翻译质量确实会提高。我们还证明了MGNMT是无结构的,可以应用于任何神经序列模型,如Transformer和RNN。这些证据证明MGNMT满足我们充分利用非平行数据的期望。

镜像生成神经机器翻译

我们提出了镜像生成NMT(MGNMT),这是一种新的深度生成模型,它以高度集成的方式同时对src2tgt和tgt2src(variational)翻译模型以及一对源和目标(variational)语言模型进行建模。因此,MGNMT可以从非平行的双语数据中学习,并在解码过程中用翻译模型自然地插值其学习的语言模型。

MGNMT的总体架构如图3所示。MGNMT利用联合概率的镜像性质,建立了双语句子对上的联合分布模型:log p(x,y | z)=1/2 [log p(y | x,z)+log p(y | z)+log p(x | y,z)+logp(x | z) ],其中 ,潜在变量z(我们使用标准高斯先验z∼N(0,I))表示x和y之间的共享语义,充当所有集成翻译和语言模型之间的桥梁。

训练

平行数据学习

我们首先介绍如何在一个规则的双语平行数据上训练MGNMT。给出了一个平行双语言句子对⟨x,y⟩,我们使用随机梯度变分Bayes(SGVB)(Kingma&Welling,2014)对对数p(x,y)进行近似最大似然估计。我们将近似后验q(z | x,y;φ)=N(μφ(x,y),∑φ(x,y))参数化。从方程(1)可以得到联合概率对数似然的证据下界(ELBO)L(x,y;θ;φ)为:

其中θ={θx,θyx,θy,θxy}是翻译和语言模型的参数集。第一项是句子对的(期望)对数似然。期望值是通过蒙特卡洛抽样得到的。第二项是z的近似后验分布和先验分布之间的KL散度。借助于重新参数化技巧(Kingma&Welling,2014),我们现在可以使用基于梯度的算法联合训练所有组件。

非平行数据学习

由于MGNMT本质上是一对镜像翻译模型,我们设计了一种迭代训练方法来开发非平行数据,在这种方法中,MGNMT的两个方向都可以从单语数据中获益,并相互促进。算法1中给出了非平行双语数据的训练过程。

形式上,给定非平行双语句子,即来自源单语数据集Dx={x(s)| s=1…s}的x(s)和来自目标单语数据集Dy={y(t)| t=1…t}的y(t),我们的目标是最大化它们的边缘分布的可能性下限:

其中,L(x(s);θx,θyx,φ)和L(y(t);θy,θxy,φ)分别是源和目标边缘对数像的下界。

我们以L(y(t);θy,θxy,φ)为例。受(Zhang 等人,2018)启发,我们将源语言中的x和p(x | y(t))作为y(t)的翻译(即反向翻译)进行抽样,得到一个伪平行句子对<x,y(t)>。因此,我们给出了方程(4)中L(y(t);θy,θxy,φ)的形式。同样,等式(5)适用于L(y(t);θy,θxy,φ)。(其推导见附录)。

方程(3)中包含的参数可通过基于梯度的算法进行更新,其中偏差在镜像中计算为方程(6)和综合行为:

利用非平行数据的整个训练过程在某种程度上与联合反向翻译有相似的想法(Zhang等人,2018)。但它们只利用非平行数据的一侧来更新每次迭代的一个方向的转换模型。共享的近似后验q(z|x,y;φ)作为一个桥梁,因此MGNMT的两个方向都可以从单语数据中受益,达到“1+1>2”的效果。此外,MGNMT的“反向翻译”伪翻译通过高级解码过程(见等式(7))得到了改进,从而获得了更好的学习效果。

解码

由于同时对翻译模型和语言模型进行建模,MGNMT现在能够通过对翻译模型和语言模型的概率进行自然插值来解码。这使得MGNMT在译入语方面具有更高的流利性和质量。

由于MGNMT的镜像性质,解码过程也具有对称性:给定一个源语句x(或目标语句y),我们希望找到y=argmax y p(y|x)=argmax y p(x,y)(x=argmaxx p(x| y ) = argmaxx p(x,y))的翻译,该翻译近似于GNMT中EM解码算法思想的镜像变体(Shah&Barber,2018)。算法2说明了我们的解码过程。

以srg2tgt翻译为例。给定一个源语句x,1)我们首先从标准高斯先验中选取一个初始z,然后得到一个初始草稿翻译为̃=argmaxy p(y | x,z);2)此翻译通过这次从近似后验q(z | x,ỹφ)中重新采样z来迭代细化,并通过最大化ELBO来使用beam搜索重新解码:

现在,每一步的解码分数都由TMx→y和LMy给出,这有助于发现一个句子 y不仅是x的翻译,而且在目标语言中更为可能。重建排序分数由LMx和TMy→x给出,在生成翻译候选后使用。MGNMT可以利用这类分数对候选译文进行排序,并确定对源句最忠实的译文。它本质上与(Tu等人,2017)和(Cheng等人,2017)有相同的想法利用双语语义对等作为规范。

实验

数据集

为了在资源匮乏的情况下评估我们的模型,我们进行实验在WMT16 English-to/from-Romanian 翻译任务上作为低资源翻译和IWSLT16 English-to/from-German (IWSLT16 EN↔DE)的翻译任务作为跨域翻译的TED会话并行数据。对于资源丰富的场景,我们在WMT14 English-to/from- German (WMT14 EN↔DE)上进行了实验,NIST English-to/from-Chinese (NIST EN↔ZH)翻译任务。对于所有语言,我们都使用来自News Crawl的非平行数据,除了NIST EN↔ZH,从LDC语料库中提取汉语单语数据。表1列出了统计数据。

实验设置

我们在Transformer(Vaswani 等人,2017)和RNMT(Bahdanau 等人,2015),GNMT(Shah&Barber,2018)以及Pytorch上实现了我们的模型。对于所有语言对,句子使用字节对编码(Sennrich等人,2016)和32k合并操作进行编码,这些操作仅从平行训练数据集的连接中联合学习(NIST ZH-EN除外,其BPE是单独学习的)。我们使用Adam optimizer与(Vaswani等人,2017)的学习率优化策略相同,4k warmup steps。每个小批量分别由大约4096个源和目标令牌组成。我们在一个GTX 1080ti GPU上训练我们的模型。为了避免在DKL(q(z)| | p(z))接近于零的趋势下学习忽略潜在表征的近似后验“collapses”,我们应用KL-annealing和单词dropout来对抗这一效应。在所有实验中,单词的dropout 率都被设置为0.3的常数。老实说,退火KL权重有点棘手。表2列出了验证集上每个任务的最佳KL退火设置。翻译评估指标是BLEU(Papineni等人,2002)。

实验结果和讨论

如表3和表4所示,MGNMT在资源贫乏和资源丰富的情况下均优于我们的竞争Transformer基线(Vaswani等人,2017年)、基于Transformer的GNMT(Shah&Barber,2018年)和相关工作。

MGNMT更好地利用了非平行数据 如表3所示,在两种资源匮乏的情况下,MGNMT均优于我们的竞争Transformer基线(Vaswani等人,2017年)、基于Transformer的GNMT(Shah&Barber,2018年)和相关工作。

在低资源语言对上 该方法在缺乏双语数据的情况下,比传统方法和GNMT方法有了一定的改进。利用非平行数据可以获得很大的改进空间。

跨领域翻译 为了评估我们的模型在跨域集合中的能力,我们首先对来自IWSLT基准的TED数据进行域内训练,然后将模型暴露于域外新闻非平行双语数据中,从新闻爬网到域内知识访问。如表3所示,对于域内训练数据不可见会导致Transformer和MGNMT的域内测试集性能不佳。在这种情况下,域内非平行数据贡献显著,导致5.7∼6.4 BLEU增益。

关于资源丰富的场景 我们还定期对两种资源丰富的语言对进行翻译实验,例如,EN↔DE 和 NIST EN↔ZH。如表4所示,在纯平行设置下,MGNMT可以获得与判别基线RNMT和生成基线GNMT相比的可比结果。我们的模型在非平行双语数据的辅助下也能取得比以前的方法更好的性能,与资源贫乏情况下的实验结果一致。

与其他半监督工作的比较 我们将我们的方法与成熟的方法进行比较,这些方法也是为利用非平行数据而设计的,包括反向翻译(Sennrich et al.,2016b,Transformer+BT)、联合反向翻译训练(Zhang et al.,2018,Trans-Forder+JBT)、多语言和半监督的GNMT变体(Shah&Barber,2018,GNMT-M-SSL),以及对偶学习(He等人,2016,Transformer+dual)。如表3所示,当将非平行数据引入低资源语言或跨域翻译时,所有列出的半监督方法都得到了实质性的改进。其中,我们的MGNMT成绩最好。同时,在资源丰富的语言对中,结果是一致的。我们认为,由于联合训练的语言模型和翻译模型能够协同解码,因此MGNMT优于联合反向翻译和对偶学习。有趣的是,我们可以看到GNMT-M-SLL在NIST EN↔ZH上的性能很差,这意味着参数共享不太适合远程语言对。研究结果表明,该方法在跨域场景下,具有很好的促进低资源翻译和从非并平行数据中挖掘领域相关知识的能力。

MGNMT在解码时更善于结合语言模型 此外,我们从表5中发现,简单的NMT和外部LM插值(分别针对目标侧单语数据进行训练)(Gulcehre等人,2015,Transformer-LM-FUSION)仅产生轻微的效果。这可以归因于不相关的概率建模,这意味着像MGNMT这样更自然的集成解决方案是必要的。除此之外,我们发现对于MGNMT,解码收敛于2∼3次迭代,这消耗了∼2.7×的时间作为Transformer基线。减小速度的牺牲将是我们未来的方向之一。

非平行数据的影响 我们在IWSLT-EN↔DE上进行了关于非平行数据尺度的实验来调研收益与数据量表之间的关系。如图4所示,随着非平行数据量的增加,所有模型逐渐变强。MGNMT在所有数据尺度上都始终优于Transformer+JBT。然而,增长率下降可能是由于非平行数据的噪声。我们还研究了非平行数据的一侧是否有利于MGNMT的两个翻译方向。如图5所示,我们惊奇地发现,仅使用单语数据,例如英语,也可以稍微提高英语到德语的翻译,这符合我们对“1+1>2”效果的预期。

隐变量x的影响 经验上,图6显示当KL项接近0时(z变得不详细)收益变小,而过大的KL会产生负面影响;同时,表2显示DKL[q(z)| | p(z)]的值是相对合理的;此外,从零z解码导致大的损失。这表明MGNMT学习了一个有意义的双语隐变量,并且在很大程度上依赖于它来模拟翻译任务。此外,MGNMT还通过使用基于有意义语义z的语言模型进一步改进了解码(表5)。这些证据表明了z的必要性。

结论

为了更好地利用非平行数据,本文提出了镜像生成NMT模型。MGNMT在共享双语语义的潜在空间中共同学习双向翻译模型以及源语和目标语模型,在这种情况下,MGNMT的两个翻译方向可以同时受益于非平行数据。此外,MGNMT可以很自然地利用其学习到的目标侧语言模型进行解码,从而获得更好的生成质量。实验结果表明,该方法在所有研究场景中均优于其他方法,在训练和解码方面均有一定优势。在以后的工作中,我们将研究MGNMT是否可以在完全无监督的环境中使用。

论文原文链接:

https://openreview.net/forum?id=HkxQRTNYPH

  • 发表于:
  • 本文为 InfoQ 中文站特供稿件
  • 首发地址https://www.infoq.cn/article/T1KaCoQb1JXzQ9fe87KN
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券