首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

有了机器翻译,就可以有AI同传吗?

博鳌论坛上的翻译君,横空出世的“腾讯同传”,再次引发了翻译圈内的讨论。

图片来源:微信小程序“腾讯同传”

有人对它强大的功能赞叹不已,也有人对它频现的低级错误嗤之以鼻。

“人工智能能否替代翻译?” 这一论题已不再新鲜。借助神经网络、机器学习等技术,AI翻译已经可以达到相当高的准确率。

无论哪家公司的APP,拿来阅读网上文章,出国旅游问路,都绰绰有余。随着语料库日渐强大,各国口音、专业术语,甚至(不少人认为难以翻译的)诗词歌赋都不在话下。

科技公司的思路似乎合情合理:机器翻译代替人工笔译,那么语音识别+机器翻译就可以代替口译。

但口译不是这么做的。

学过口译的同学一定记得,从学习的第一天起,老师拼命强调的一点就是:

‍ “翻意思,不要翻字。”

口译是“听-理解-说”的过程。

在“听”这一步,机器是不难达到人类水平的。政治、经济、医学、法律……各领域的术语,英国、印度、非洲……各地口音,只要语料库够强大,机器可以远超人类。

但“理解”这一步就不同了。

做口译时,译员听的,远不是一串字词而已。听到一个词,Ta脑中正调动着所有的背景知识,和讲话人的思路保持一致;在听的同时,大脑把内容视觉化。听完之后,我们也许根本不记得讲了哪些字,但我们一定知道讲了什么内容。看过译员的笔记本就知道,上面写的并不是说过的字,而是符号、框架,就像“思维导图”。

译员听到的,还有语调、重音。

一个干脆利落的“Yes!”是“没错儿!”,但拖长上扬的“Yes?"是“你啥意思?”

重音的位置不同,意思就不同:比如,"INEEDyour help"(你的帮助很重要,而非可有可无)和"I needYOURhelp"(需要你的帮助,而不是别人的)译出来就是两种效果。

甚至还有表情和肢体动作。虽然这是“看”到而不是听到的,但也是口译输入的内容。发言人的一个笑,是高兴的笑,还是无奈的笑,还是讽刺的笑?耸肩、摊手、撇嘴,是想表达什么意思?这都会影响译员对接下来内容的理解。(做口译时,译员一定要能看到讲者,就是这个原因)

在口译时,译员也需要不断取舍。不是每个演讲者都抑扬顿挫,逻辑清晰:有的只说半句,有的光速读稿,有的来回绕圈,我们要去粗取精,整理出一段通顺的话来,才不负辅助交流的重托。

“说”这一步,也有讲究。口译行内有句话:“见人说人话,见鬼说鬼话”。说到底,是为了让人一下子听明白。简简单单的一个词儿:“两会”,对中国一无所知的听众,你得先解释一通,再来个通俗的说法"Two Sessions" ;对中国有些了解的人,直接用后者也无妨;要是遇到中国通,直接“Lianghui”都没问题。译员甚至会根据听众的表情,判断对方是否理解,并不断调整自己的翻译。

从开口的那一刻起,译员就会努力和演讲人的内容、语气、感情(甚至动作!)同步,有点像演员进入角色的状态,这样出来的翻译才会有感染力。大部分的AI翻译,还只停留在文字上屏的阶段。语音合成再先进,还无法做到语气、重音、停顿,而这些元素,少一点,就影响体验,更影响理解。

口译和笔译不同,前者并非结构化的信息,而且参杂了无数不确定的因素,所以需要人脑在瞬间做出决策。但人类的弱势也很明显:例如,面对术语、数字等信息时,总是手忙脚乱。而这些却是机器最能发挥作用的地方。译员们拼命写数字,疯狂查术语的时候,要是有个AI助理,听记难点,一秒上屏,那该是多么幸福的事。

作为一种新技术,AI翻译的大热完全可以理解。毕竟它背后是人们对于低成本、高效率的追求。大热之后,新鲜感褪去,也看清了问题,与其继续同场竞技,不如取长补短,给出更好的解决方案。

通雅传译

口译员专业知识分享

原创文章,转载请与作者联络

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180409G1K8CP00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券