近年来,神经机器翻译(Neural Machine Translation,NMT)已经事实上成为了主流的机器翻译方法,其在大多数主流语言对上的翻译效果大大超过了传统的统计机器翻译模型,并已经部署到了如 Google Translate 等商用场景中。
7月3日下午,爱奇艺技术产品团队举办了“i技术会”第16期技术沙龙,本次技术会的主题是“NLP与搜索”,邀请到了来自字节跳动、去哪儿和腾讯的技术专家,共同分享与探讨NLP与搜索结合的魔力。
作者:Chunyang Chen、Ting Su、Guozhu Meng、Zhenchang Xing、Yang Liu
几十年来,统计机器翻译在翻译模型中一直占主导地位 [9],直到神经机器翻译(NMT)出现。NMT 是一种新兴的机器翻译方法,它试图构建和训练单个大型神经网络,该网络读取输入文本并输出译文 [1]。
选自arxiv 作者:Lijun Wu, Yingce Xia 等 机器之心编译 参与:吴攀 生成对抗网络(GAN)与神经机器翻译(NMT)是当前人工智能研究的两个热门领域。近日,中国科学技术大学与微
据优图实验室 AI 手语识别项目组研究员阳赵阳介绍,优图 AI 手语翻译机以普通摄像头作为手语采集装置,依托高性能计算机进行后台运算,用户只需面对摄像头完成手语表达,翻译机屏幕界面就能快速把手语转换为文字,帮助听障人士和健听人士进行正常交流,未来有望在机场、高铁、民政窗口等公共场所部署应用,助力信息无障碍城市建设。
本篇内容,主要给大家推荐三个Studio中的插件分别是:Sequence Diagram, Translation和TinyPNG插件。
在图像处理、计算机图形和计算机视觉中,许多问题都可以表现为将输入图像“转换”成相应的输出图像。 正如我们常见的机器翻译中,同一句话可以用英语或中文表达一样,一副场景图可以用RGB图像、梯度场、边缘图,语义标签图等。与自动语言翻译类似,我们定义自动图像翻译如下:将图像从一种domain转换到另一个domain的任务,其本质仍旧是图像生成任务。在本文中,我们依次介绍了pixel2pixel、cycleGAN、StarGAN、ModularGAN一系列文章,目的是探索GAN在图像翻译任务中的应用。
首先,我们来做一点简单的科普,大神可以绕过,能完成大量图片翻译的工具有很多,这里可能大家用的最多的是各家的ERP工具,大部分的ERP工具都集成了图片翻译的功能,背后调用的接口大部分都是阿里云的现成的图片翻译接口,然后自己包装一下,对于ERP和大部分做图片翻译的厂商来说,省时省力,不需要自己训练翻译和擦除还原等模型,开发周期短,产品完整度较高。
说不同语言的人更容易地、直接地相互交流,这是语音到语音的翻译系统(Speech-to-speech translation)的目的,这样的系统在过去几十年里取得了不错的进展。
选自arXiv 机器之心编译 参与:李亚洲、刘晓坤、路雪 神经机器翻译近来广受关注,基于注意力的NMT逐渐流行。但是,很少有研究分析注意力到底在「注意」什么?它与对齐一样吗?本文将对此进行分析。 神经机器翻译(NMT)近期备受关注,它极大地改进了多种语言的机器翻译质量,取得了顶级的结果。神经机器翻译模型的核心架构基于常见的编译器-解码器方法,学习把源语言编码成分布式表征,并把这些表征解码成目标语言。在不同的神经机器翻译模型中,基于注意力的 NMT 逐渐流行,因为它在每一翻译步使用源句最相关的部分。这一能力使
【新智元导读】谷歌今天公布了一个用 TensorFlow 构建神经机器翻译(NMT)系统的教程,全面解释 seq2seq 模型,并演示如何从零开始构建 NMT 翻译模型。这个教程从 NMT 的背景知识讲起,详细讲解如何构建并训练一个 NMT 模型,并提供代码,绝对有用。 机器翻译——自动在两种语言之间进行翻译的任务——是机器学习中最活跃的研究领域之一。在多种机器翻译方法中,序列到序列(“seq2seq”)模型最近取得了巨大的成功,并已经成为大多数商业翻译系统的事实上的标准,例如谷歌翻译。这是由于 seq2s
作者:Hany Hassan Awadalla 机器之心编译 参与:Nurhachu Null、路 近日微软发布博客,提出一种半监督通用神经机器翻译方法,解决低资源语言机器翻译的问题,帮助解决方言和口语机器翻译难题。该研究相关论文已被 NAACL 2018 接收。 机器翻译已经成为促进全球交流的重要组成部分。数百万人使用在线翻译系统和移动应用进行跨越语言障碍的交流。在近几年深度学习的浪潮中,机器翻译取得了快速进步。 微软研究院近期实现了机器翻译的历史性里程碑——新闻文章中英翻译达到人类水平。这一当前最优
论文作者:郑在翔,周浩,黄书剑,陈家骏,许晶晶,李磊论文地址:https://proceedings.neurips.cc/paper/2021/file/afecc60f82be41c1b52f6705ec69e0f1-Paper.pdf论文代码:https://github.com/zhengzx-nlp/REDER 1 简介 众所周知,(神经)机器翻译是一个序列到序列生成任务。标准的序列到序列生成模型类似于一个单工通信通道(在单工信道中信号传递是单向的,即只能从源端(源语言)到目标端(目标语言);与之
而AI在翻译语音的时候,不把西语的音频转成文本,也不生成任何英语的文本,直接产出了英文音频。和标答一字不差。
能够统一地理解语音和文本,是人类能够形成通用语言能力的重要原因。那么,人工智能是否也能如此?最近,来自字节跳动和UIUC的研究人员借鉴这一思路,设计了一个跨模态的翻译模型——Chimera(奇美拉)。它不仅在一项标杆性语音翻译任务中获得高分,其可视化结果也证实了这一机制能更好地理解人类语言。
X-RiSAWOZ: High-Quality End-to-End Multilingual Dialogue Datasets and Few-shot Agents
选自arXiv 作者:Hendrik Strobelt等 机器之心编译 参与:刘天赐、刘晓坤 语言翻译中出现的细微错误对于人类而言常常是很明显的,并会导致差异很大的结果。例如,之前由于 seq2seq 翻译系统将「早上好」错误的翻译为了「攻击他们」,导致错误的逮捕事故。深度学习模型的不可解释性更是普遍存在的问题。为此,IBM 研究院、Watson AI Lab、哈佛 NLP 团队和哈佛视觉计算团队联合研发了一款针对 seq2seq 模型的可视化调试工具 Seq2Seq-Vis,使用户可以可视化模型执行过程中
5月16日,全球无障碍宣传日之际,腾讯优图实验室宣布攻克AI手语识别技术挑战,联合深圳市信息无障碍研究会发布“优图AI手语翻译机”,致力于通过人工智能技术为听障人群搭建无障碍沟通平台。 AI手语翻译机以普通摄像头作为手语采集装置,依托高性能计算机进行后台运算,能够实时地将手语表达翻译成文字。用户不需要携带任何额外装置,只要面对摄像头完成手语表达,就能从翻译机中得到反馈回来的识别结果。 未来, AI手语翻译机有望在机场、高铁、民政窗口等公共场所部署应用,助力信息无障碍城市建设。 优图发布AI手语翻译机
由于Google 浏览器翻译引擎,关闭中国大陆的翻译功能,出一个Mac的解决办法。
作者 | 张俊林 责编 | 何永灿 最近两年,注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型的深度学习任务中,是深度学习技术中最值得关注与深入了解的核心技术之一。 本文以机器翻译为例,深入浅出地介绍了深度学习中注意力机制的原理及关键计算机制,同时也抽象出其本质思想,并介绍了注意力模型在图像及语音等领域的典型应用场景。 注意力模型最近几年在深度学习各个领域被广泛使用,无论是图像处理、语音识别还是自然语言处理的各种不同类型的任务中,都很容易遇到注意力模型
在人类语言的翻译中,一种语言文字通过人脑转化为另一种语言表达,这是一种自然语言的“翻译”。
👆点击“博文视点Broadview”,获取更多书讯 广义上讲,“翻译”是指把一个事物转化为另一个事物的过程。 在人类语言的翻译中,一种语言文字通过人脑转化为另一种语言表达,这是一种自然语言的“翻译”。 如图1所示,可以通过计算机将一句汉语自动翻译为英语,汉语被称为源语言(Source Language),英语被称为目标语言(Target Language)。 图 1 通过计算机将一句汉语自动翻译为英语 一直以来,文字的翻译往往是由人完成的。 时至今日,人工智能技术的发展已经大大超越了人类传统的认知,用计
小蛋白是翻译自小开放阅读框(small open reading frame, sORF)、长度低于100个氨基酸的蛋白质,在此前的基因组注释中通常被忽略。sORF广泛存在于人类等多种生物的基因组中,包括mRNA的非翻译区(untranslated regions, UTR)以及多种非编码RNA (non-coding RNA, ncRNA)区域,部分能够翻译成小蛋白。近年来,越来越多的研究发现小蛋白在胚胎发育、细胞凋亡、肌肉收缩等多种生物学过程中行使功能,并在肿瘤等疾病进展中发挥作用。
AI科技评论按:据2019年3月份世界卫生组织公布的最新数据,超过全世界人口的5%(约4.66亿人)患有残疾性听力障碍。据估计,到2050年这一数据将达到9亿。与此同时,手语作为听障者使用较多的语言,能正确理解手语的健全人士却寥寥无几。
选自arXiv 机器之心编译 参与:吴攀、黄小天、李亚洲 近两年来,机器翻译的突破让人目不暇接,从去年谷歌的颠覆性突破开始到一个月前 Facebook 的全新 CNN 翻译技术,人工智能的巴别塔正越建越高。近日,谷歌再次宣布又在机器翻译上更进了一步,实现了完全基于 attention 的 Transformer 机器翻译网络架构,并且还在 WMT 2014 的多种语言对的翻译任务上超越了之前 Facebook 的成绩,实现了新的最佳水平。机器之心对这篇研究论文进行了摘要介绍。 重磅 | 谷歌翻译整合神经网络
CoMoGAN是一个依赖于函数流形上目标数据的无监督重组的连续GAN。为此,我们引入了一种新的函数实例归一化层和残差机制,它们将图像内容从目标流形上的位置中分离出来。我们依靠原始的物理模型来指导训练,同时允许私有的模型/翻译功能。CoMoGAN可以与任何GAN主干一起使用,并允许新类型的图像翻译,例如循环图像翻译(如延时生成)或分离线性翻译。在所有数据集上,它都优于文献。
Word文档是在工作中会经常用到的文档,有很多的整理工作都需要它来完成,但是当你打开一份Word文档时,发现全是英文,然后自己英文还不咋滴,这时候就很头疼了,这时就需要对Word文档进行翻译,那么Word文档如何翻译成中文,今天就来给大家介绍超级好用的方法,分分钟就能掌握的小技巧。
编者按:EMNLP 2019正于11月3日至11月7日在中国香港举办。本届 EMNLP 大会中,微软亚洲研究院共21篇论文入选,涵盖预训练、语义分析、机器翻译等研究热点。本文为大家介绍其中的7篇精选论文。
编者按:目前,目标语言端的无标注单语数据已被广泛应用于在机器翻译任务中。然而,目标语言端的无标注数据一旦使用不当,反而会给模型结果带来负面影响。为了有效利用大规模源语言端和目标语言端的单语数据,微软亚洲研究院在 EMNLP 2019 上发表的论文中,提出一种简单的语料数据使用流程,只需要四个步骤就能极大地提高模型翻译结果。
选自 einstein.ai 机器之心编译 参与:Nurhachu Null、蒋思源 自然语言处理(NLP)这个领域目前并没有找到合适的初始化方法,它不能像计算机视觉那样可以使用预训练模型获得图像的基本信息,我们在自然语言处理领域更常用的还是随机初始化词向量。本文希望通过 MT-LSTM 先学习一个词向量,该词向量可以表征词汇的基本信息,然后再利用该词向量辅助其它自然语言处理任务以提升性能。本文先描述了如何训练一个带注意力机制的神经机器翻译,其次描述了如何抽取该模型的通用词向量与将其应用于其它任务的性能。
最近两年,注意力模型(Attention Model)被广泛使用在自然语言处理、图像识别及语音识别等各种不同类型的深度学习任务中,是深度学习技术中最值得关注与深入了解的核心技术之一。
大模型的成功很大程度上要归因于 Scaling Law 的存在,这一定律量化了模型性能与训练数据规模、模型架构等设计要素之间的关系,为模型开发、资源分配和选择合适的训练数据提供了宝贵的指导。
图是有限集V和E的有序对,即G=(V,E)。其中V的元素称为顶点(也称为节点或点),E的元素称为边(也称为弧或线)。每一条边连接两个不同的顶点,而且用元组(i,j)表示,其中i和j是边所连接的两个顶点。
基于生成对抗性网络(GAN)的数据扩充用于提高目标检测模型的性能。它包括两个阶段:训练GAN生成器以学习小目标数据集的分布,以及从训练的生成器中采样数据以提高模型性能。在本文中,我们提出了一种流程化的模型,称为鲁棒数据增强GAN(RDAGAN),旨在增强用于目标检测的小型数据集。首先,将干净的图像和包含来自不同域的图像的小数据集输入RDAGAN,然后RDAGAN生成与输入数据集中的图像相似的图像。然后,将图像生成任务划分为两个网络:目标生成网络和图像翻译网络。目标生成网络生成位于输入数据集的边界框内的目标的图像,并且图像转换网络将这些图像与干净的图像合并。 定量实验证实,生成的图像提高了YOLOv5模型的火灾检测性能。对比评价表明,RDAGAN能够保持输入图像的背景信息,定位目标生成位置。此外,消融研究表明,RDAGAN中包括的所有组件和物体都发挥着关键作用。
在过去的几年里,随着技术的飞速发展,神经网络推动了自然语言任务在准确性和质量方面的快速提高,如文本分类和问题回答等。而其中由深度学习带来的一个令人印象深刻的领域是需要机器来生成自然语言文本的任务。其中两个任务是基于神经网络模型且具有最先进的性能的是文本摘要和机器翻译。 然而,到目前为止,所有基于神经网络和深度学习的文本生成模型都具有相同的、令人惊讶的局限性:就像我们一样,它们只能逐个单词,甚至逐个字母地生成语言。如今,Salesforce正宣布了一个能够克服这种局限性的神经机器翻译系统,它可以以完全并行的
10月27日晚7点,机器之心最新一期线上分享邀请到东北大学教授、博士生导师肖桐带来分享,系统梳理机器翻译发展的技术脉络,并介绍机器翻译发展历程中的经典工作。直播过程中将送出20本肖桐和朱靖波教授的联合著作《机器翻译:基础与模型》。详情见文末。 广义上讲,“翻译”是指把一个事物转化为另一个事物的过程。 在人类语言的翻译中,一种语言文字通过人脑转化为另一种语言表达,这是一种自然语言的“翻译”。 如图1所示,可以通过计算机将一句汉语自动翻译为英语,汉语被称为源语言(Source Language),英语被称为目标
作者 | 李梅 编辑 | 陈彩娴 机器翻译是现今人类消除语言障碍、重建巴别塔的新工具。然而,在世界现存的 7000 多种已知语言中,许多低资源语言还未得到足够的关注,尤其是有近一半的语言没有标准的书面系统,这是构建机器翻译工具的一大障碍,所以目前 AI 翻译主要集中在书面语言上。 在利用 AI 推动自然语言翻译这件事上,Meta 一直致力于“No Language Left Behind”(没有一种语言被落下)的目标。 比如汉语方言之一闽南话,现在也有了专属的机器翻译系统,讲闽南话的人可以与讲英语的人进行无
机器之心专栏 机器之心编辑部 在刚刚结束的国际机器翻译大赛(WMT2021)上,字节跳动 AI Lab 的火山翻译提交并行翻译系统 GLAT(Glancing Transformer),一举夺得了德语到英语方向机器翻译自动评估第一。这是并行翻译(非自回归)系统首次参加世界级的比赛,击败一众自回归翻译系统。并行翻译系统的崛起给自然语言生成技术的发展指明了新的方向。 作为世界顶级的机器翻译比赛,WMT 大赛自 2006 年以来已经举办了 16 届,每年都会吸引来自世界各地的顶级企业、高校和科研机构参赛。历年参赛
前言 据2017年北京听力协会预估数据,我国听障人群数量约达到7200万。放眼世界,世界卫生组织发布的最新数据显示,全世界有共计约4.66亿人患有残疾性听力损失。尽管听障人群能够凭借手语进行交流,但在机场、民政等公共服务环境中仍然面临沟通障碍等一些亟待解决的问题。 秉承“科技向善”的技术价值观,腾讯一直致力于通过AI等技术手段解决人类面临的社会问题。我们相信,科技能够造福人类,人类应该善用科技,努力去解决自身发展带来的社会问题。作为国内计算机视觉人工智能领域的领先研究团队,腾讯优图实验室近日攻坚AI
概括地讲,自然语言处理包括两大任务:自然语言文本理解和自然语言文本生成。自然语言文本理解就是让机器洞悉人们所言之意,自然语言文本生成旨在让机器像人一样表达和说话。文本理解的关键在于对已知文本的上下文表征和建模,而文本生成的本质是在文本理解的基础上准确流畅地产生自然语言文本。
机器翻译依赖于大型平行语料库,即源语和目的语中成对句子的数据集。但是,双语语料是十分有限的,而单语语料更容易获得。传统上,单语语料被用于训练语言模型,大大提高了统计机器翻译的流畅性。
由于深度学习的进步,图像到图像的翻译最近受到了极大的关注。大多数工作都集中在以无监督的方式学习一对一映射或以有监督的方式进行多对多映射。然而,更实用的设置是以无监督的方式进行多对多映射,由于缺乏监督以及复杂的域内和跨域变化,这更难实现。为了缓解这些问题,我们提出了示例引导和语义一致的图像到图像翻译(EGSC-IT)网络,该网络对目标域中的示例图像的翻译过程进行调节。我们假设图像由跨域共享的内容组件和每个域特定的风格组件组成。在目标域示例的指导下,我们将自适应实例规范化应用于共享内容组件,这使我们能够将目标域的样式信息传输到源域。为了避免翻译过程中由于大的内部和跨领域变化而自然出现的语义不一致,我们引入了特征掩码的概念,该概念在不需要使用任何语义标签的情况下提供粗略的语义指导。在各种数据集上的实验结果表明,EGSC-IT不仅将源图像转换为目标域中的不同实例,而且在转换过程中保持了语义的一致性。
祁劢,携程国际业务部内容研发团队Leader,目前主要负责信息类项目产品设计、技术架构与团队管理。CG爱好者,喜欢细致描绘世间百态的通俗小说,喜欢探索,乐于体验各地风土人情。
作者丨神们自己@知乎(已授权)来源丨https://www.zhihu.com/question/557600073/answer/2705548589编辑丨极市平台本文约5000字,建议阅读10+分钟唯有不停地学习和进步,成为科技的主人而不是工具人。 人工智能的发展代表着科技的发展和更新,但是新兴技术的发展也是一把双刃剑,许多行业和工作正逐步的被AI所淘汰。 人工智能正在让很多行业消失,只是大多数人还感觉不到。 很多人以为的消失,是人的消失:干这行的人少了,少到一个都没有了,这个行业才算真正消失。 但我
摘要:上一篇广告行业中那些趣事系列3:NLP中的巨星BERT,从理论的角度讲了下NLP中有里程碑意义的BERT模型。BERT具有效果好和通用性强两大优点,其中效果好最主要的原因就是使用了Transformer作为特征抽取器。本篇主要详解下这个从配角到C位出道的Transformer,主要从宏观和微观的角度分析Transformer,讲下它的核心注意力机制Attention,然后以翻译任务举例讲下Transformer是如何进行工作的。
图像翻译目的是用模型将源域图像转换到目标域图像,通常涉及标签图到场景图的转换、图像风格、人脸的属性变换、标签图到场景图的转换。
基于词的翻译模型起源于上世纪IBM关于统计机器翻译的原创性工作,教材主要介绍的是IBM Model 1模型。该模型能够从大量句对齐的语料中自动实现词对齐。
Toolkit:支持MyBatis、Json、XML、Base64等操作的工具包。
前两天,微信iOS最新版6.6.7上线了,pick了一大波新功能,不知你体验了没? 今天,就介绍一个厉害的。 先看这个—— 知道这是什么吗?没错,一张(看不懂的)菜单。 但如果你打开微信扫一扫,你会发
领取专属 10元无门槛券
手把手带您无忧上云