首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

不包括英语的翻译语言对

是指在云计算领域中,不涉及将英语翻译成其他语言的语言对。云计算是一种基于互联网的计算模式,通过将计算资源、存储资源和应用程序等虚拟化,提供给用户按需使用的服务。在云计算中,语言对是指将一种语言翻译成另一种语言的技术。

尽管云计算与语言对没有直接关系,但在云计算中,语言对的翻译技术可以应用于多个方面,例如:

  1. 多语言支持:云计算平台可以提供多语言支持,使用户可以使用自己熟悉的语言进行开发和部署应用程序。这样可以满足不同地区和用户的语言需求。
  2. 自动化翻译:在云计算中,可以利用语言对的翻译技术实现自动化翻译,将用户输入的文本或内容翻译成其他语言。这可以用于多语言网站、多语言应用程序等场景。
  3. 多语言数据处理:云计算平台可以提供多语言数据处理的能力,例如将多语言的文本进行分析、挖掘和处理。这对于跨语言的信息检索、情感分析等任务非常有用。
  4. 多语言机器学习:在云计算中,可以利用语言对的翻译技术实现多语言机器学习。通过将不同语言的数据进行翻译和对齐,可以构建跨语言的机器学习模型,实现跨语言的信息处理和应用。

总之,语言对的翻译技术在云计算中具有广泛的应用场景,可以满足用户的多语言需求,提供多语言支持和自动化翻译等功能。腾讯云提供了一系列与语言处理相关的产品和服务,例如腾讯云机器翻译、腾讯云自然语言处理等,可以满足用户在云计算中的多语言需求。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

学界 | 大脑信号和翻译?利用脑信号实现英语、葡和普通话三互解

本文作者从 2014 年开始研究「用大脑信号进行翻译」(brain-based translation),并发过一篇关于英语利用脑信号进行互译论文,研究发现用被试者(英语)被英语概念激活大脑信号去训练算法时...,算法可以预测另一个被试者(葡萄牙)大脑中被葡萄牙激活概念,通过大脑信号类似,实现葡萄牙英语互解。...在两种语言上训练分类器比在一种语言上训练分类器在三个语言对准确度更高。该优势在抽象概念域,如社会交往和心理活动上更为突出。...例如,英语和普通话之间元语言概念表征距离不一定大于英语和葡,尽管英语和葡同属于印欧语系。...左:英语和葡 RSA 矩阵间相关矩阵;中:普通话和葡 RSA 矩阵间相关矩阵;右:普通话和英语 RSA 矩阵间相关矩阵。

1.8K90

将英式英语翻译成美式英语开源工具

另外,即使他们“似乎”在说英语,但有时理解他们在说什么仍然是一个挑战。我以为我在澳大利亚时光会给我足够语言能力,但是,可惜,很多东西都超出了我想象。...不止是一般 “soccer 是 football” 或 “trunk是 boot” 之类困惑。 幸运是,有开源方案可以将“英式”翻译成“美式”。...如果你碰巧在酒吧有 Linux 笔记本,那么你可以使用方便开源命令行程序,它就叫 美英英语翻译器(MIT 许可证)。...除了翻译单词和短语,美英英语翻译器还能分析(嗯,剖析)文档。我用一个叫《独立宣言》流行文件试了一下。它分析并返回了许多结果。...现在我可以和我英国朋友们见面了(可以安全地再来一次),喝几杯!像当地人一样讲英语!大家干杯!

70720

不以英语为中心,百种语言互译,FB开源首个单一多语言MT模型

近日,Facebook 根据多年对 MT 研究宣布实现了一个重要里程碑:首个单一大规模 MMT 模型,该模型可以实现 100x100 个语言对直接翻译,而不依赖以英语为中心数据。...该研究避开了在统计上很少需要翻译方向,比如冰岛到尼泊尔翻译,或者是僧伽罗到爪哇翻译。...这样做是因为,同一个语系中的人(包含多种语言)往往交流更频繁,并将从高质量翻译中收益。举例而言,一个语系中将涵盖印度境内使用孟加拉、印地、马拉地、尼泊尔、泰米尔和乌尔都等多种语言。...此外,研究者还使用反向翻译策略为以往无人监督言对方向创建数据。 仅挖掘数据 VS 反向翻译策略加持形成言对比较。...举例而言,如果一个模型在法语 - 英语和德语 - 瑞典语料库中进行训练,则可以实现法语和瑞典零样本转译。

37010

首次赢得WMT机器翻译大赛,Meta证明单个多语言模型强于双语模型

为了构建通用翻译器,来自 Meta 研究者认为 MT 领域应该从双语模型转向多语言翻译(Multilingual translation)——多语言模型即一个模型可以同时翻译许多语言对,包括对低资源语言对...(例如,冰岛英语翻译)和高资源语言对(例如,英语到德语翻译翻译。...但直到现在,多语言翻译无法为高资源语言对提供与双语模型(经过特殊训练)一样好结果。因此,提供跨多种语言高质量翻译通常涉及使用单个双语模型组合,而对于低资源语言来说,实现还比较困难。...上图为 2017-2021 年 WMT 竞赛时间表,表中展示了英语到德语翻译性能质量随时间进展,由结果可得多语言模型现已超过了双语模型。...回译(back- translation)是单数据最常见技术之一,Meta 采用这一技术赢得了 2018 年和 2019 年 WMT 英语对德语新闻翻译任务。

52840

Facebook全新无监督机器翻译法,BLUE测试提升超过10分!

而Facebook提出无监督机器翻译,能够初步解决这一问题,比如在乌尔都(注释:巴基斯坦国语,属于印欧语系印度-伊朗语族印度-雅利安支;是全球使用人数排名第20语言)和英语之间进行自动翻译—...这个单模型比较好获得,只要有小语种(比如乌尔都大量单数据集就可以。英语模型则更好构建了。 通过使用单模型对逐字翻译模型进行优化,就得到了一个比较原始机器翻译系统。...接下来,Facebook研究人员再将这些机器翻译所得到句子(从乌尔都英语翻译)作为ground truth,用于训练从英语到乌尔都机器翻译。这种技术最先由R....不可否认,由于第一个系统(从乌尔都英语原始机器翻译系统)翻译错误,作为训练数据输入英语句子质量并不高,因此第二个反向翻译系统输出乌尔都翻译效果可想而知。...研究人员还测试了在语种上相隔较远语种(英俄),训练资源较少语种(英语—罗马尼亚),以及语种相隔极远且训练资源极少语种(英语—乌尔都翻译

87120

Facebook开源机器翻译新模型,同传人员或失业

,比如直接从僧伽罗翻译成爪哇。...当把中文翻译成法文时,以前最好的多语种模型方式是把中文翻译成英文,把英文翻译成法文,因为英语训练数据是最多。...M2M-100共接受了2200种「语言对训练,比以往以英语为中心最优多语言模型多了10倍。部署 M2M-100将提高数十亿人翻译质量,尤其是对那些语言资源匮乏的人。...它们优先使用了最高质量数据和最大数据量数据挖掘方向,并且避免了需要少量翻译方向,如:冰岛-尼泊尔或者僧伽罗-爪哇。...例如,如果一个模型使用法语-英语和德语-瑞典训练,就可以在法语和瑞典之间进行zero-shot 翻译。在多对多模型在非英语方向之间进行翻译情况下,它比以英语为中心多语言模式要好得多。

1.1K20

浅析大规模多语种通用神经机器翻译方法

多对一模型学习将任何在源语言翻译成目标端一种特定语言,这种情况下通常会选取语料丰富语言比如英语,相似的,一对多模型学习将在源一种语言翻译成目标端任意一种语言。...多对一这种模式通常会看作多领域学习问题,类似于源输入分布是不一致,但是都会翻译成一种目标语。而一对多这种模式可以被看作是多任务问题,类似于每一对源到目标语看作一个单独任务。...该数据集包括102种语言对,由于语言对之间是相互,可以将它们与英语进行“镜像”转换,每个语言对最多有100万个示例。这样一来,总共可以翻译103种语言,并同时训练204种翻译方向。...实验结果 表1就是从10种语言翻译英语一对多、多对一和多对多实验结果。 其中上表表示了从10种语言翻译英语翻译结果,下表表示了从英语到10种语言翻译结果。 ?...在相同数据情况下,多语言模型一对多、多对一以及多对多大多都高于单对模型,表明模型具备同时训练更多语言对能力。但是一些语言对仍然出现了高度波动以及低于相应对模型。

86010

Meta AI科学家专访 – 我们离世界上每个人都能实时理解每种语言还有多远?

Philipp Koehn:如今,在MT(机器翻译,Machine Translation)技术覆盖范围上存在着严重不平衡:拥有大量训练数据言对,如法语-英语,可以被自动翻译成接近人类质量语言...多语言系统在一个模型中翻译多个语言对,这是一个关键发展,因为它们在许多语言对中泛化知识,这对低资源语言特别有帮助。这与传统双语模式截然不同,在传统模式中,每种语言对都是单独处理。...该领域最终目标是构建一些所有语言都通用文本表示,这样就能更容易地将知识从一种语言转移到另一种语言。 在过去几十年里,以际表征概念为中心,通过努力扩大语言对数量,可以找到一条有趣线索。...想想圣经许多翻译版本,例如,可以从中提取爱沙尼亚-尼泊尔平行语料库,但每个圣经版本都是从第三种语言(可能是希腊、拉丁英语翻译。...由于我们不希望训练被这样数据所支配,我们将高质量训练数据(通常与英语配对)与仅针对某些语言对并行数据相结合:每个语族代表性语言之间翻译,按语言分组 和数据驱动分析。

37430

【Facebook AI && 含源码】有史以来第一个赢得WMT多语言模型

正文开始 1 Facebook/Meta主要工作 为了构建通用翻译器,Meta认为 MT 领域应该从双语模型转向多语言翻译——其中一个模型可以同时翻译许多语言对,包括低资源(例如,冰岛英语...)和高资源 (例如,英语到德语)。...多语言翻译是一种特别好方法——它更简单、更具可扩展性,并且更适合低资源语言。但目前为止,采用高质量语言对训练多语言模型相比于专门训练双语模型得到实验效果并不好。...现在,Meta最新研究成果却取得了突破性进展:在 14 个语言翻译方向:英语往返捷克、德语、豪萨、冰岛、日语、俄语和中文,有10中往返语言翻译,单个多语言模型表现首次超过了经过专门训练最佳双语模型...当高资源语言受益于大型多语言模型时,低资源语言对就有过度拟合风险。

56310

每日论文速递 | 华为提出一个提高LLM翻译能力新训练范式

具体来说,论文提出了一个新训练范式,旨在通过以下三个阶段来增强LLMs跨语言对齐能力: 次级预训练(Secondary Pre-training)使用大量单数据:这一阶段目标是通过使用多样化数据来增强大型语言模型训练...这有助于模型更好地理解和生成非英语语言文本,从而为后续翻译任务打下基础。...结果和分析: 论文提出方法在大多数翻译方向上都优于以前研究和SoTA模型,尤其是在英语到中文翻译方向上取得了显著改进。...探索不同语言对效果: 论文主要关注了中英和英德两种语言对翻译性能。未来研究可以扩展到更多言对,以验证方法普适性。 使用不同数据增强技术实验: 论文中使用了特定数据增强策略。...结果: 提出方法在多个翻译方向上超越了以往研究和当前最先进模型。 特别在英语到中文翻译方向上取得了显著性能提升。 贡献: 强调了在预训练阶段增强LLMs跨语言对齐能力重要性。

45310

业界 | 微软提出新型通用神经机器翻译方法,挑战低资源语言翻译问题

如此巨量训练数据仅仅在少数语言对可以获得,也仅限于少数特定领域,例如新闻领域或官方记录。 事实上,尽管全球共有大约七千种口语,但是绝大多数语言都不具备训练可用机器翻译系统所需大量资源。...在实验中,研究者在三个场景中尝试了所提出模型。第一种是多种语言翻译场景,该场景中模型仅使用每个语言对 6000 个平行句子就学会了罗马尼亚英语和拉脱维亚英语翻译。...在实验中,该模型成功地利用 6000 个罗马尼亚-英语平行句子对使用零罗马尼亚-英语平行数据训练多语言系统进行了微调。...在第三种情况下,研究者调整了一个经过标准阿拉伯英语翻译训练系统,使之在完全不使用口语方言平行数据情况下,就能适用于阿拉伯口语方言(黎凡特)。...该方法使用只有 6000 句子小型平行语料库在罗马尼亚-英语 WMT2016 中取得了 23 BLEU 得分,而使用多语言训练和回译强大基线系统 BLEU 值是 18。

1.1K60

Facebook开源增强版LASER库,包含93种语言工具包

个语言对共享任务上达到了当前最佳。...Facebook 对 2.23 亿个与英语或西班牙对齐公共平行数据进行了系统训练。对于每个批量,Facebook 随机选择一种输入语言并训练系统将句子翻译英语或西班牙。...LASER 可以处理 93 种语言包括主动宾(SVO)顺序语言(如英语)、主宾动(SOV)顺序语言(如孟加拉和突厥)、动主宾(VSO)顺序语言(如塔加拉族和柏柏尔),甚至是动宾主(VOS)顺序语言...在 14 种目标语言中,模型在 8 种语言上零数据表现是在应用于英语时性能 5% 上下区间。这 8 种语言包括与英语亲属关系远俄语、汉语、越南等。...该方法可用于在使用任意语言对情况下,挖掘 90 多种语言中平行数据。这有助于改进众多依赖平行训练数据 NLP 应用,包括低资源语言神经机器翻译

1.4K10

面向神经机器翻译篇章级单修正模型

团队研发支持140种语言互译小牛翻译系统已经得到广泛应用。 《面向神经机器翻译篇章级单修正模型》[1]是EMNLP2019上一篇关于篇章级神经机器翻译工作。...针对篇章级双语数据稀缺问题,这篇文章探讨了如何利用篇章级单数据来提升最终性能,提出了一种基于目标端单篇章级修正模型(DocRepair),用来修正传统句子级翻译结果。 ?...首先使用反向翻译模型将目标端篇章级单数据翻译到源端,得到丢失了句子间上下文信息结果,然后通过正向翻译模型将源结果翻译回目标端,得到最终需要上下文不一致目标端数据,整体流程如图3所示...之前一些工作也证实了源端上下文信息在篇章级机器翻译作用,如何利用源数据来更好地提取上下文信息也是未来一个值得研究方向。...篇章级翻译目标是解决传统句子级翻译中丢失句子间上下文信息问题,而在这种后编辑方法中,仅仅使用了目标端一组没有上下文一致性翻译结果就可以通过单修正模型获得一致性结果,缺乏对源关注。

75020

Facebook增强版LASER开源:零样本迁移学习,支持93种语言

除了 LASER 工具包,研究者还基于 Tatoeba 语料库共享一组 100 多种全新语言对齐语句测试集。...不仅如此,研究者还使用英语或西班牙对公共并行数据中 2.23 亿条句子进行了系统训练。...对于每个小批量,随机选择一种输入语言并训练模型,使其将句子翻译英语或西班牙一种,而不需要让大多数语言都与目标语言保持一致。...对于 14 种语言 8 种,零样本学习在诸如英语、俄语、中文和越南等语言上能够取得 5%以内表现。 此外,研究者还在斯瓦希里和乌尔都等稀有语言上进行试验,同样取得了很好结果。...最后,研究者表明,对于任意语言对,都可以通过相同方法来挖掘 90 多种语言并行数据。在未来,这将显著改善许多依赖于并行数据训练 NLP 应用程序,包括那些稀有语言神经机器翻译应用。

94020

【源头活水】mBART:多语言翻译预训练模型

对于无监督情况,我们看到了一致改进,并为关联性较低言对产生了第一个非生成结果(例如,在尼泊尔-英语9.5个BLEU增益)。...例如,对一种语言对(如韩语-英语双文本进行微调,就可以创建一个模型,该模型可以从单语言预训练集(如意大利-英语)中所有其他语言进行翻译,而无需进一步训练。...大小指的是X数据大小,En大小作为参考。所有的预训练模型在训练过程中都控制看到相同数量英语实例。 ? 图4:Ro-En随Pre-training步数微调曲线。...结果:如表5所示,我们发现英语-罗马尼亚预训练有很大收益,即使在翻译一门关系遥远未见语言(阿拉伯)和两门未见语言(德语和荷兰)时也是如此。...数据集:我们只考虑X→En翻译,从§3.1中选择了12种语言对位数,涵盖了印度(Ne、Hi、Si、Gu)、欧洲语言(Ro、It、Cs、Nl)、东亚语言(Zh、Ja、Ko)和阿拉伯(Ar)。

4.2K30

Paper | 机器翻译里程碑,多语言机器翻译模型 M2M-100

(给机器学习算法与Python学习加星标,提升AI技能) 荐: 多语言机器翻译模型 M2M-100 不依赖以英语为中心数据,可以实现 100 种语言之间相互翻译。...:首个单一大规模 MMT 模型,该模型可以实现 100x100 个语言对直接翻译,而不依赖以英语为中心数据。...这个单一多语言模型表现得和传统双语模型一样好,并且比以英语为中心多语言模型提高了 10 个 BLEU 点。 具体而言,通过使用新挖掘策略来创建翻译数据,该研究构建了首个真正多对多数据集。...该数据集拥有 100 种语言 75 亿个句子。研究者使用可扩展技术来建立具有 150 亿个参数通用模型,它从相关语言中捕获信息,并反映出更加多样化语言文字和词法。目前,这项研究已经开源。 ?...训练语料库中桥梁语言数据量。 ? 多对多和以英语为中心语言模型比较。在包含英语评估方向上,多对多模型与以英语为中心模型性能相当,但在非英语方向上性能要好得多。

1.2K31

学界 | 对比神经机器翻译和统计机器翻译:NMT六大挑战

考虑了两个语言对英语-西班牙和德语-英语。 挑战一:领域误匹配(Domain Mismatch) 单词表达为不同风格时会有不同译文和意义。...5 个不同德语-英语 统计机器翻译(SMT)和 神经机器翻译(NMT)系统使用了不同语料库单独训练,即 OPUS 中法律、医疗、IT、可兰经、字幕,然后再在所有 OPUS 语料库中训练一个新系统。...挑战二:训练数据总量 增加训练数据总量能得到更好结果。 在全部 WMT13 (385M 词) 上英语-西班牙语系统,我们分区以获得学习曲线。...对于 SMT 来说,语言模型在每个分区西班牙部分中训练。我们还提供了 SMT 和大型语言模型(LM)对比。 ?...最优束尺寸从 4(捷克英语)到大约 30(英语到罗马尼亚)不等。质量降低主要原因是射束越宽,翻译长度越短。 总结 最后虽然神经机器翻译有这些困难,当我们不能否认是它十分高效。

1.9K80

学界 | 无监督神经机器翻译:仅需使用单语料库

选自arXiv 机器之心编译 参与:路雪、李泽南、蒋思源 神经机器翻译近期取得很大成功,但缺乏双语数据言对很难基于现有方式训练出好机翻系统。...该系统在 WMT 2014 法语-英语和德语-英语翻译中分别取得了 15.56 和 10.21 BLEU 得分。...论文链接:https://arxiv.org/abs/1710.11041 摘要:近期神经机器翻译(NMT)在标准基准上取得了很大成功,但是缺乏大型平行语料库对很多语言对是非常大问题。...尽管该方法很简单,但我们系统在 WMT 2014 法语-英语和德语-英语翻译中分别取得了 15.56 和 10.21 BLEU 得分。...NMT 系统通常为特定翻译方向搭建(如法语到英语英语到法语),而我们利用机器翻译二元本质(He et al., 2016; Firat et al., 2016a),同时进行双向翻译(如法语 ↔

1K80

Facebook最新论文:跨语言模型预训练,三大任务刷新最高性能

最近研究已经证明,生成式预训练对于英语自然语言理解很有效。但该领域研究基本上都是单,主要集中在英语。...在有监督机器翻译任务中,我们在 WMT'16 罗马 - 英语数据集中获得了 38.5 BLEU 最高分,比之前最佳方法高了 4 BLEU。 该方法代码和预训练模型将在近期公开提供。...对于 TLM 与 MLM 结合目标,我们在这两个目标之间交替,并使用类似的方法对语言对进行取样。...表 2:WMT’14 英语 - 法语, WMT’16 德语 - 英语 以及 WMT’16 罗马尼亚 - 英语无监督机器翻译 BLEU 分数结果。前两列表示用于预训练编码器和解码器模型。...“-” 表示模型被随机初始化,CLM 和 MLM 对应于针对 CLM 或 MLM 目标的模型预训练。 表 3:WMT’16 罗马尼亚 - 英语有监督机器翻译 BLEU 评分结果。

83010

程序员借助AI,用500多种语言翻译“洗手”

使用跨语言词向量对N-gram进行矢量化处理,并使用各种距离度量将其与英语短语矢量化版本进行比较,向量空间中最接近英语短语N-gram被确定为目标语言匹配。...最后,将与他们英语对应词相匹配组成短语组合在一起,以生成目标语言中“洗手”短语。这种组合再次利用了跨语言向量,以确保以适当方式组合。...因为缺乏许多语言对一致数据,所以我使用了单独保留文档,其中也包含“洗手”成分,以帮助验证所构造短语中标记。...例如,在保加利亚中,我预测为“умийръцете”,而在Google翻译中,预测为“Измийсиръцете”。但是,如果我使用Google翻译对我预测进行回译,我仍然会得到“洗手”。...请注意,即使对于像意大利这样高资源语言,我最多都使用每种语言大约7000个句子来获得以上翻译,也不依赖于语言对之间对齐句子。

54420
领券