首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >谷歌大脑是如何炼成的:万字无删减版全解密(下)

谷歌大脑是如何炼成的:万字无删减版全解密(下)

作者头像
AI研习社
发布2018-03-29 16:20:37
1K0
发布2018-03-29 16:20:37
举报
文章被收录于专栏:AI研习社AI研习社

唯物按:如果说到在机器学习领域领先的公司,一定不能忽略谷歌。从谷歌翻译到从机器视觉,谷歌一直努力将机器学习应用于可能想象的任何地方。文章从技术、制度、思想演变三个方面讲述了 Google 翻译向 AI 的成功转型的历程。

文章源自纽约时报,作者Gideon Lewis-Kraus,雷锋网编译,分为上下两部分推送。本文为下半部分,主要讲述了Google Translate 从理念到产品的历程。

语言的十字路口

谷歌大脑团队现在大约有 100 个成员,他们经常觉得自己不是在一个有等级区分的部门,而是在一个俱乐部、一个学术社区或是一个小酒吧,这个谷歌公司中最自由的部门经常受到其他部门羡慕的眼光。谷歌大脑被安排在公司园区西北边缘的一个两层的蛋壳结构的炭灰色建筑中,巨大的窗户可以看到远处的山景。他们的小厨房里有一个游戏足球桌,一个摇滚乐队游戏机,一个 Go Kit,但是都很少有人使用这些。(但是我有次看到一个年轻的助理研究员在向他的同事介绍如何把一个菠萝蜜像切火鸡一样切开)

六月份我在谷歌大脑的办公室时,看到一些空桌子,但是其中的大部分都有便利贴写着诸如“Jesse,6/27”的字眼,到现在几乎所有位置都满了。当我第一次访问他们的时候,停车还很方便,最近的位置提供给孕妇和特斯拉汽车,其他空闲的位置还很多。但是十月份的时候,如果我 9:30 以后才来,就不得不在马路对面找车位了。

谷歌大脑部门的增长让 Dean 有点担心公司是否可以满足这样的需求。他想避免发生所谓的“成功灾难”——即公司的理论容量超过了实践中执行任务的能力,人手不够。所以某天他进行了一些简单计算后,给经理做了一个两页 PPT 的展示:“如果未来每个人每天对自己的安卓手机说三分钟的话,那我们得需要多少机器啊!我们可能得将我们的计算空间加倍甚至加三倍。”Dean 用夸张的表情说,“这听起来很恐怖,但是我们不得不这么做。”他犹豫了一下,结果是“需要建立新的架构”。

但是,他们还有另一个选择:设计、批量生产一种新的芯片,安装进分散式数据中心,加快运算速度,这种新的芯片叫做 T.P.U.(tensor processing units)。并且一反常态地主张使用比普通芯片精确度更低的芯片。他们不再计算 12.236 乘以 54.392,而是给出近似的 12 乘以 54 的答案。在数学的角度看,神经网络就是一种结构化的成百上千上亿的矩阵乘法的连续结果,所以过程的速度比精确度更重要。Dean 说道:“通常专用硬件不是个好想法,它经常只能加速一个东西,但是因为神经网络的一般性,你可以使用专有硬件来加速很多东西。”

就在芯片设计阶段即将完成的时候,Le 和其他两个同事终于证明了神经网络可以通过设定来解决语言结构问题,他提出了一个想法,叫做“放弃词向量”(word embeddings)。这个想法耗费了他超过 10 年的时间。当你概括一个图像的时候,你可以预测出图像概述的每一个阶段,比如一条边,一个圆,等等。当你用同样的方法去概括一种语言的时候,实质上你是基于日常用法,建立出一个词与其他的词之间的多维距离地图。而机器不像我们使用语言学规则去分析数据,不是将词语分成名词、动词等,机器会将词语平移、扭曲、变形后放进那个地图中。

其实在二维中,这个地图并没有用。比如说,你想要将“猫”放在“狗”附近,但是你也想把“猫”放在“尾巴”、“高傲”和“喵喵”附近,因为你想把跟“猫”有关的不管距离远近的词语全部囊括在内。只有这些词在不同维度上与一个词相关时,我们才可以同时将他们关联在一起。当然,你无法轻易地做出一个 160,000 个维度的地图,但是你却可以很好地掌握一门拥有一千个维度的语言。换句话说,语言就是一个用包含一千个数字的表格指派每一个词语的过程。想象这种多维地图其实很困难,因为我们真的很难再一个三维空间中看到一个一千维的向量。

接着,特定的维度就可以表示人类显性的分类,比如性别、身材。如果你用 1000 个表示“国王”的数字,减去 1000 个表示“王后”的数字,得到的结果应该和“男人”减去“女人”一样。如果你可以获得英语语言的全部空间和法语语言的全部空间,理论上,你可以训练一个网络如何将一种语言等价地放入另一种语言。你只需要给机器无数的英文句子作为输入,相对应的法语句子作为输出,经过一些时间的学习,机器就会识别出词语的模式,就如同图像分类器在像素水平上分辨图像一样。最终,你就可以给机器一个英文句子,命令他输出匹配最佳的法语句子。

但是,词语和像素的主要区别在于,所有图像里的像素只出现一次,但词语却会随着时间连续出现。网络需要一个方法来“存储”这个时间序列的连续过程,即从第一个词到最后一个词的路径。2014年9月的一周,Le 和两个来自加拿大和德国的学者发表了三篇论文,最终提供了解决这一问题的必要理论工具。他们的研究说明了端口开放项目(如谷歌大脑的 Magenta)如何生产艺术和音乐。也为工具性任务,如机器翻译指明了道路。Hinton 告诉我说,他认为这些后续工作可以至少还需要5年以上的时间。

伏击者

Le 的论文说明了神经网络翻译似乎是合理的,但是他只使用了一个小的相关公共数据集(只是对谷歌而言比较小,它其实是世界上最大的公共数据集。但是旧翻译器在十年间收集的生产数据比这个数据集大 100 到 1000 倍)。更重要的是,Le 的模型在超过 7 个词语的长句中表现不佳。

彼时的谷歌大脑科学家 Mike Schuster 接过了接力棒。他知道,如果谷歌没有找到将理论转化为产品的方法,其他人就会抢先找到。这个项目花费了他两年时间。Schuster 说:“你想当然地以为,翻译无非是将数据输入,运行程序,输出结果,但实际上并不是这样。”

Schuster 是一个严谨专注,似乎岁月并没有在他身上留下痕迹。他的头又黑又小,肩膀很窄,常常穿着一条迷彩短裤和一双 Nike 运动鞋。他看起来就像是那种刚刚从打坐中醒来,戴上他小小的椭圆无边框眼镜,随便吃点坚果,然后顺便在上班路上完成了沙漠十项全能的人。他告诉我说,从家到公司骑自行车“只有” 18 英里的路程。Schuster 在前西德的杜伊斯堡长大,学习的专业是电子工程,后来又搬到日本京都从事早期的神经网络工作。

90 年代,他在一个跟会议室一样大的神经网络机器上做实验,这个机器造价百万美元,并且需要经过数周的训练才能完成如今只需要在笔记本上训练一小时就能实现的任务。他在1997年发表过一篇论文,15 年来很少有人引用,但今年却被引用了 150 次左右。Schuster 并不是没有幽默感,但是他的对话经常带有一些粗暴感,我觉得这是他身上一种标志性的德国式和日本式克制精神的结合。

Schuster 要解决的问题非常复杂。一方面,Le 的代码是自定义编写的,与谷歌的开源机器学习平台(后来发展成 TensorFlow)不兼容。2015年秋天,Dean 给 Schuster 介绍了另外两个工程师:Yonghui Wu 和 Zhifeng Chen。他们花了两个月时间在新系统中重新复写了Le 的结果。Le 其实也在旁边,但是即是是他自己也不能弄清楚他们所做的工作。正如 Schuster 所说,“有些东西我们也没有完全理解,他们自己也不知道为什么这样做。”

今年二月,谷歌的研究组织(公司的一个非正式组织,大约有1000人)在豪华的旧金山联合广场圣弗兰西斯威斯汀酒店举行了一场“静修会”。会议的上午进行了多轮闪电会谈,快速地更新了研究前沿问题,下午则进行了跨部门的促进讨论,会议希望这种静修可以提供一个机会,让这种无法预测的、贝尔实验室式的交流帮助一个成熟的公司保持高产。

午饭的时候,Corrado 和 Dean 在找Google Translate 的主管 Macduff Hughes,当时 Hughes 正在独自一人吃饭,然后这两个谷歌大脑的成员突然就坐在了他的两边,就像 Corrado 说的,“我们伏击了他”。“其实,” Corrado 对警惕的 Hughes 说,“我们有些事情想告诉你。”他们告诉 Hughes,考虑到有超过10年的数百个工程师的程序代码和一个神经网络,2016年对 Google Translate来说似乎是一个彻底大翻修的好时机。

原有的机器翻译系统已经工作了30年,它隔离每一个连续的句子片段,在一个大型统计派生词汇表中查询所有单词,然后使用后处理原则加上合适的后缀,再重新组合使句意明确。这种方法叫做“基于短语的统计机器翻译法”。因为系统是一个一个部分进行翻译,所以它并不知道哪个是最后一个,因此很多时候你会觉得翻译的句子结构混乱。谷歌大脑替代原有翻译机器后,可以直接一次翻译整个句子,把握句子内容,理解句子意思。

这个赌注可能很低:翻译产生的利润甚微,并且可能永远如此。对于大多数英语母语使用者而言,相比于一个期待的渐进式进步,服务产品性能上即使是一个巨大的更新,也很难激起人们的赞赏。但是发明一个能与人类媲美的机器翻译并不只有短期内的必要性,更多的是长远角度的转型式发展。

在不久的将来,这对公司战略发展来说至关重要。谷歌估计 50% 的网络显示的是世界上 20% 的人使用的英语语言。如果谷歌想要在中国市场(该市场中搜索引擎绝的大多数市场份额属于其竞争对手百度),或在印度市场竞争,合适的机器翻译是基础设施中不可或缺的部分。百度也在2015年7月发布了一个关于神经机器翻译可能性的突破性文章。

并且在更远的未来,我们可以推理出,机器翻译可能是在通用计算机设备上使用人类语言的第一步。这也许代表着一个巨大的转折点——科技的发展中可能出现了真正的人工智能。

硅谷中的大多数人都认为机器学习的发展快要接近地平线了,所以 Hughes 看到了这个伏击点的到来,他对此保持怀疑态度。Hughes,一个的温和的强壮的中年男人,他的头发是杂乱的棕色,鬓角也有些灰白,是一个典型的线路工程师,在1970年的波音公司里,绝不会离开他的绘图台。他的牛仔裤口袋里感觉装满了笨拙而奇怪的工具,就好像他正在用卷尺和电热偶绘制电路。他跟年轻人不一样,他明白谷歌里很多人在很多部门都尝试过神经网络翻译的工作,想要把实验结果变为实际产品,但是很多年来,大多数结果都是徒劳无功。

Hughes 听了他们的想法,最后非常谨慎地说,“听起来这件事好像能在三年内完成。”

但是 Dean 的想法不同:“如果我们全神贯注,可以在今年内完成它。”人们喜欢、赞赏 Dean 的一个原因就是他可以长时间地全神贯注在一件事情上,另一个原因就是他在说“如果我们全神贯注于此”的时候真诚得一点也不尴尬。

Hughes 确信这个转变不会很快发生,但是他本人也不在乎真的“全神贯注于此”。所以他转身对他的团队说,“让我们为2016年做准备吧,我不想成为那个说 Jeff Dean 不能保证速度的人。”

一个月以后,他们终于做出了一个 Schuster 的新系统和 Hughes 的旧系统的对比试验。Schuster 想要实验英法互译,但是 Hughes 建议他试试别的。他说,“英语—法语互译的过程已经很完善了,系统的改进不会太明显。”

有一个困难 Schuster 无法克服。评价机器翻译的基准度量叫做 BLEU 分数,方法是比较机器翻译和平均水平的人工翻译的结果。当时,英法互译的最高 BLEU 分数是20。1分的进步被视为非常好,2分的的进步被视为非常杰出。神经网络在英法互译对中比原有系统提升了7分。Hughes 告诉 Schuster 的团队说,他们的系统在过去四年中的进步都没有这次的一半多。为了确定这不是测量上的一些巧合,他们也让一些读者来做对比试验。读者感知分数(0—6分)也显示出平均进步0.4分——这差不多是原有系统整个生命周期内的进步分数。

三月中旬,Hughes 给他的团队发了一封电子邮件,写道:旧系统的所有项目立即暂停。

图中右边的是Quoc Le,左边的是 Mike Schuster

从理论到产品

直到那时,神经网络翻译团队也只有三个人——Schuster、Wu、Chen。但在 Hughes 的支持下,团队开始联合并扩大。团队成员在 Schuster 的要求下,每周三的下午两点在公司 Quartz Lake 房间会面。会议通常轮流由不定的十几个人参加。当 Hughes 和 Corrado 在的时候,他们通常是“仅存的”两位英语母语者。工程师们说着中文、越南语、波兰语、俄语、阿拉伯语、德语和日语,不过他们更多的是使用自己最有效的混杂语言和数学表达。在谷歌里,并不会存在有谁主导会议的问题,但是在 Schuster 这里?毫无疑问。

即使在那个时候,他们也并不清楚需要做些什么。Schuster 有次对我说,「整个事情就是关于不确定性,不确定性贯穿了整个过程,包括软件、数据、硬件、人。」他伸展双臂,举过肩膀,接着说,“这就像是在一个大泥潭中游泳,你只能看见这么一点点。”说着,他在胸前用手比出 8 英寸的长度,“我们有个目标,也许就在那里吧。”

谷歌大多数会议室都有投影仪,空闲时就会播放超高清的谷歌公共图片,比如森林梦境、北极光、国会大厦等等。Schuster 指着其中一个——夜里闪光的华盛顿纪念碑,他说,“外面的景色就是现在所有人拿望远镜就能看见的范围。”

尽管理论工作已经耗费了他们很多的精力和时间,但是想要把理论转化为真实的产品(就是理论科学家不予考虑的仅仅是一些工程上的部分)也绝非易事。一方面,他们必须确定他们在使用正确的数据来训练神经网络。

谷歌数以十亿的“阅读”训练词汇大都是从中等复杂度的句子中提取的,比如海明威的作品。有一些是公共领域内的,比如原始的罗塞塔石碑语言学习软件中完整的加拿大议会双语记录。还有一些是从 10 年收集的数据中调来的,包括志愿者们众包的人工翻译。团队的存储库中有大约 9700 万个不同的英文词汇。但是一旦他们去除情感符、错误拼写和冗余部分后,可用的词汇只有大约 16 万个。

接着,你需要重新关注用户实际上想要翻译什么内容,很多情况下根本不是完整的句子。谷歌发现,很多人不会使用翻译机器翻译全文或复杂的句子,他们只是翻译碎片化的语言。如果你想要让神经网络处理用户的询问,你必须确定输入内容的方向,因为神经网络对训练过的数据非常敏感。

Hughes 指出,“神经网络翻译系统能学习任何它可以学习的东西。就像一个学习走路的小孩一样,‘噢,爸爸生气的时候说的是那个词语!’ ”,他笑着说,“所以你必须非常小心。”

然而最重要的是,他们需要保证翻译的整个过程可靠而快速,用户甚至不会注意到延迟。在二月份的时候,翻译包含 10 个词的句子需要 10 秒,这个速度对他们来说太慢了。所以翻译团队开始对小部分用户使用伪造的延迟形式进行实验,测试人们的容忍度。他们发现慢两倍,甚至慢五倍的时候,人们都还能忍受,但是慢八倍的时候,人们就无法忍受了。

他们无需在所有语言中确认这个结果。在如法语和中文这种检索量大的语言中,翻译速度实际上并没有降低。更微妙的一点在于,他们知道用户如果想要更高质量的结果,就不会太在意轻微的延迟。他们只是想阻止人们放弃使用谷歌的产品转而使用竞争对手的服务。

Schuster 承认他其实并不知道他们是否可以将速度提升到足够快。他还记得在小厨房中跟 Chen 说的话:“一定有一些东西可以使它变得更快,但是我不知道到底是什么东西。”

但是他确实知道,他们需要更多的计算机——“G.P.U.”,一种用来训练神经网络的图形处理器。Hughes 跑去问 Schuster 是怎么想的。“我们需要申请一千个 G.P.U. 吗?”Schuster 说:“为啥不是 2000 个?”

十天后,他们增加了 2000 个处理器。

今年 4 月为止,三人的团队已经扩张到 30 多人,一些人来自谷歌大脑团队,比如 Le,另一些人则来自谷歌翻译团队。五月份,Hughes 指派了每种语言对子的临时负责人,然后所有人都将他们的结果输入一个表格程序中进行绩效评估检查。在任意给定的时间里,都至少有 20 个人在运行他们独立的为期一周的实验,解决一些意想不到的问题。有一个模型,某天突然“发疯”,开始毫无预兆地将所有句子中遇到的数字全部提取出来然后丢弃,这样危险的情况持续了好几个月。Schuster 说,“大家都吓尿了。”

2016 年上旬,团队做出了很多研究成果,比如“词块模型”、“覆盖惩罚”、“长度标准化”。Schuster 说,每一个部分的贡献可能不大,但是整合起来就有非常显著的影响。一旦这个模型定型后,目前翻译中使用的 150 种不同的模型将变为一个单一的多语言模型,并随着时间推移而进步发展。然而,一个悖论仍然存在:通过学习机器进行后续一般化时需要的工具和自动化的过程需要人类付出极大的努力和智慧。所以他们现在所做的只是基于一种直觉:每层中需要多少神经元?1024 个还是 512 个?需要多少层?应该同时运行多少个句子?训练需要多长时间?

Schuster 告诉我:“我们做了数百次实验,最终明白了我们应该在一周内结束训练。大家都在问,我们何时停止?我怎么能知道我做完了?其实你永远不会知道。机器学习机制永远达不到完美。你需要去训练,在某个时点也不得不停止。这是整个系统的本质,对一些人来说会觉得很痛苦。但这也是一种艺术——就好像大家都想要画一幅漂亮的画,但是做下去就会发现,有些人会做得更好,有些则更差。”

直到五月,谷歌大脑团队才明白,让系统执行足够快的方法只有一个,就是在 T.P.U.(一种特殊的芯片)上运行。正如 Chen 所说,“我们甚至不知道代码是否可以运行。但是我们确实知道,没有 T.P.U. 我们的工作无法进行。”他还记得一次又一次地恳求 Dean:“请为我们预留一些东西。”Dean 为他们预留了。然而,T.P.U. 并没有很好地解决问题。Wu 为了找出原因,在一个硬件团队里呆了两个月。他们不只是排除模型中的错误,还解决芯片的问题。神经网络翻译项目将成为一个证明,以核验整体基础设施投资概念是否可行。

六月的一个周三, Quartz Lake 的与会人员们正在对一篇百度发表的论文颇有微词。Schuster 出面维持了秩序:“是的,百度发表了这篇文章,看起来我们好像被抄袭了——类似的结构,类似的结果。”谷歌 2 月和 3 月内部测试的 BLEU 分数至关重要。Le 看起来很平静;他的结论似乎认为,这标志着谷歌走在正确的道路上。他平静地说:“这跟我们的系统非常相似。”

谷歌团队知道他们本可以更早地发表他们的结果,有可能打败他们的对手,但是正如 Schuster 所说:“产品落地比发表论文更加重要。人们会说,‘哦,我是第一个做出来的,但是到最后,谁还在乎这些?’ ”

然而,这的确增加了他们的斗志,他们必须让自己的服务产品做得更快更好。Hughes 有一个幻想:他们甚至无需通知他们的用户更换产品。他们只需要等着看社会媒体们被这个伟大的进步震惊和怀疑。他在 5 月 3 号下午 5:36 分告诉我;“我们还不想说这是一个新的系统。”一分钟后,团队向 10% 的用户展示了中英互译的结果,没有告诉任何人。“们想要确定系统运行良好。”

然而结果是, Twitter 上出现了爆炸性的话题:“你知道 Google Translate 现在变得有多酷吗?”

8.庆祝

在四季界限并不明显的硅谷,只有两个衡量时间的方法是可靠的:一个是小厨房中随季节变化的水果,二是 zigzag 指标。

九月下旬的一个周一下午,天气炎热。团队的论文终于发表出来,并且竟然有 31 个作者。第二天,谷歌大脑和谷歌翻译部门的成员聚集在小厨房准备好好庆祝一番。有趣的是,谷歌大脑部门的大楼,可能是为了向冬天的移民者致敬,叫做阿拉斯加,而谷歌翻译的大楼主题则是夏威夷。夏威夷小厨房的墙上有一幅沙滩的照片,还有一个小小的挂着夏威夷花环的茅草屋样的服务台,里面有一个玩具鹦鹉,屋顶上挂着纸灯笼,两边还立着几个竹竿,就像是一个热带地区的堡垒。穿过竹竿的另一边则是玻璃墙和一模一样的灰色桌子。

那天早上,Google Translate 新购买了一批帽衫来庆祝它的十年庆,很多同事都来这里聚会。他们庆祝的是,在那一天,十年来积累的工作可以“退休”了。那些新的帽衫可能变成了旧部门的纪念品,但是两个团队的工程师和计算机科学家们看起来都非常开心。

谷歌神经网络翻译最终得以运行。在聚会结束的时候,公司的中英互译测试已经处理了 1800 万次访问。翻译团队的一个工程师忙着在他的手机上用百度翻译将中文翻译成英文。他欢呼着:“如果你一次输入超过两个字母,它就会超时!”(百度说,用户从未反映过这个问题)

在之后的几周内,单词量开始扩展,谷歌发布了中文到英文的神经网络翻译器。一些人质疑说这可能是因为英汉翻译是谷歌唯一一个表现较好的语言对。但是每个参加聚会的人都知道,他们真正的成就将会在 11 月发布。虽然那时,他们应该已经在其他项目组里了。

Hughes 清了清嗓子,走进了 tiki 酒吧。他穿着领子皱巴巴的深绿色 Polo 衫,衣服上还有未干的汗渍。就算还有最后一个问题,和最后的最后问题,包括论文中一个大的测量错误和系统中一个奇怪的标点符号错误。但是所有事情都解决了,或者至少目前算是解决了。宾客们安静了。

Hughes 主持了一个高效而高产的会议,没有啰嗦和废话,但是他中途因为一个隐喻问题被迫暂停了一下,对他来说,必须强调这个事实——神经网络翻译项目本身代表了一次“说着不同语言的团体间的合作”。他继续说道,他们的神经网络翻译项目代表了“一次功能上的进步”,一次不连续的进步,一次垂直跳跃,而不是一种平滑的曲线。新的翻译器不仅仅是团队的成功,更是一次从理论到实践的巨大成就。

他举一瓶看起来很贵的香槟,“为了沟通!为了合作!” 他说。工程师们互相看看对方,为自己鼓了鼓掌。Jeff Dean 站在 Corrado 和 Schuster 旁边,在小厨房的中间,手插在口袋里,微微耸肩,用一种他典型的不在乎的方式轻轻地附和了一下。Dean 说,“他们的努力说明他们可以同时做两件大事:做研究,并且在大概 5 亿人面前将理论变为事实。”大家都笑了,不是因为他说得很浮夸,而是因为他说的的确是事实。

尾声:机器里没有幽灵

人工智能领域里最具争议的“中文房间”悖论,或许正揭示了机器翻译的核心问题。中文房间问题是 1980 年由美国哲学家 John Searle 所提出的。在他所设想的实验中,一名母语为英语的实验者单独呆在监牢中,有一名狱吏通过门上的卡槽给他传递一些写着中文汉字的纸条。而这名“囚犯”手上也有一套特定的工具,能够满足他编译的需求。

这样一来,尽管这名房间中的人完全不会中文,但他依然可以用中文流利地和外界交流。那么,我们显然不认为这名囚徒是懂得中文的。那么电脑也是一样,Searle 在这项研究的最后反驳了人工智能能够拥有思想的观点,他认为,它们只是因为拥有了理解的工具(编写好的程序和足够多的训练数据),而非真正明白了字里行间的含义。

回到谷歌大脑团队本身,甚至是延伸到硅谷中每一个致力于研究机器学习的人们,他们似乎并没有把这个问题太当回事。这并非意味着他们忽略了这个悖论,而是他们与 Searle 不同,他们不会将“意识”当作一种纯精神领域的特殊状态。——哲学家 Gilbert Ryle 甚至将其称为“机器中的幽灵”。研究者们只是简单地相信,虽然我们所谓的“意识”看起来非常复杂且遥不可及,其实已经在不同机器的简单协调活动中出现。

也就是说,我们一直以来认为大脑会是思想(thought)的更高级存储形式,但事实证明,机器这类(不那么高级)的载体同样能实现这一点。在这个语境中,逻辑的分析就像投球和接球一样有迹可循。人工智能并不是凭空创造思想,而是为人类解决问题提供更效的工具。就像我第一天在谷歌时 Corrado 和我所说的一样,“这并不是一个关于机器‘知晓’或‘理解’的研究,而是 一个它‘能做什么’,更重要的是‘还不能做什么’的研究。”

诚然,我们都明白“知道”与“实践”会对现实的文化与社会产生影响。在一次聚会上,Schuster 谈到在论文发表后,媒体对机器翻译的热捧有些过火。他一字一字地背出了首发媒体的新闻标题:谷歌表示,人工智能翻译水平已与人类媲美(GOOGLE SAYS A.I. TRANSLATION IS INDISTINGUISHABLE FROM HUMANS)。

事实上,即使在论文收尾的最后阶段,团队也一直在与这种观点做“斗争”。Schuster 反复强调“翻译的结果的确比之前进步不少,但还无法做得与人类一样好。”他也希望大众能明白,他们所做的努力不是想取代靠翻译吃饭的人,而是更好地帮助他们。

而实际上,机器学习的兴起也让我们无法将焦点只放在某个孤立的特殊领域。如果你持与 Searle 相同的观点,认为人类自身拥有一种机器无法取代的洞察力的话,那么你自然能将人类与自动化划分出一条明晰的界限。而如果你站在对立面,那么这二者间实际上就存在着灰度。因此,我们也不难理解现在为何有越来越多的研究者站队第一种想法。2015 年,在探讨人工智能根源的 M.I.T 大会上,Noam Chomsky 被问到他对机器学习的看法。

他认为目前整个人工智能行业只能算得上是“统计预测”,就像全球性的天气预测那样。即使神经翻译已经能够达到近乎完美的机翻水平,但语言背后隐藏的丰富底蕴与文字之美,机器无从揭示一丝一毫。它永远不会告诉你,这个代词代表的是间接还是直接受格。诚然,这些所谓的预测是能够让你实现目标,但它并不能让你进一步理解其中的原理。人工智能可以精确地从医学影像图片诊断肿瘤位置,但机器无法像医生一样通过望闻问切,明白这名病人为何患病。

那么问题来了,放射医师就能做到这一点吗?

医学诊断,这可能是机器学习发展速度最快且最难以预料的一个领域。放射科医师通常都经过高强度训练,且拥有不菲的收入。因此,我们认为医师的技能实际上是存在某种职业洞察力的——也就是我们刚刚所提到的,通常只能存在于人脑中的,通过长年经验所积累的判断。而在过去的短短几年间,研究者们不仅可以通过神经网络分析出病理区域,甚至机器还能根据以往的病历文本做出初步诊断。而逐渐,放射科医师的工作内容比起以往的逻辑分析,可能更接近于对可预测的模型进行匹配。毕竟你并不会得知是什么引起了癌症,你只会知道它就在那里。

如果出于某些富有针对性的目的,我们得以建立一个鲁棒性强的模式匹配装置,它的内在结构同样得以举一反三,应用于许多其它领域。一名翻译团队的工程师将一个神经网络用于训练鉴赏艺术品,甚至可以用来驱动一辆用无线电控制的自动汽车。同样是这样的神经网络,它能够用来识别一只猫,或者是用来训练识别 CT 片子——而它在短时间所接受的训练数据可能比最富资历的医生所见过的还要多。神经网络能够在瞬间阅读上百万页的法律条文,以构建自己的翻译知识库,而就像雷锋网此前所提到的一样——人的一生所阅读的文字,可能对它而言只是浮光掠影。

这类被自动化取代的工作不会只是那些简单的重复性工作——更何况,我们将其与低人工智能联系在一起,这种联想并不公平。我们并不是在谈论那 350 万可能失业的卡车司机,而是在讨论包括卡车司机、经济学家、金融分析师、房地产商在内的人们。过去的九个月只是证明了,谷歌大公司里的一个小团队能在多短的时间内,将一个无人涉足的项目尝试自动化。

如今,硅谷所发生的最重要的事情并不是打破一切。相反,你可以把它视为一种体系建立,或是权力巩固的过程,而这样的发展速度在人类历史进程上是前无古人后无来者的。谷歌大脑招过实习生,也有长驻的老员工;团队为员工们提供了高强度的培训,但在公司也有免费的自行车头盔及绿伞(虽然这里一年下两次雨)。

水果沙拉、休息的行军床、按摩椅、数不尽的高端点心、还有幼儿衣物捐赠箱,有专业老师指导的攀岩课(墙有两层楼那么高),你甚至还能参加阅读分享会或是政治漫谈小组。在这块人类智慧的沃土上,谷歌员工们在电子矿场中辛勤劳作,所产出的精神财富将横跨四大洲 13 个数据中心,为数不尽的人们带来光明。

不过,即使是像谷歌这样巨大的机构也需要正视人工智能大潮。如果机器能从人类的传道授业中学习,那么像程序员这种看似无可替代的工作也可能有朝一日不保。在聚会临近尾声之际,Translate 小组的一名工程师 Corrado 向 Hughes 展示笔记本电脑上的内容。

Hughes 秒懂了这是什么,而当我仔细看清了上面出现的名字和文件后,我才反应过来。这个动画细数的是 10 年的翻译代码变化历程,从 2006 年、到 2008 年,再到 2015 年,Hughes 慢慢地拖动进度条,镜头在写满贡献者的名字间一闪而过。Hughes 充满感慨地指出,Jeff Dean 的名字其实在全片中出现了很多次——而且在未来可能也将继续下去。

Hughes 叫了 Corrado 一声,随后两人起身。Corrado 看起来有点伤感,似乎还沉浸在怀旧的情绪之中。为了打破这种气氛,他抬起头问道:“那么,我们什么时候会把原有的代码删掉呢?”

“不用担心,”Hughes 回答道,“新的代码库就要建起来了。一切都在成长。”

via nytimes

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-12-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI研习社 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 8.庆祝
相关产品与服务
机器翻译
机器翻译(Tencent Machine Translation,TMT)结合了神经机器翻译和统计机器翻译的优点,从大规模双语语料库自动学习翻译知识,实现从源语言文本到目标语言文本的自动翻译,目前可支持十余种语言的互译。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档