于谦老师对手来了,AI现在连捧哏都学会了

NEXTTECH | 编译

今天开篇,先来道小学语文题练练脑。

题目很简单,根据给定的第一句话,选择合适的句子,把意思补充完整:

舞台上,一位女士在钢琴边坐下,她_______

A. 她坐在长凳上,妹妹在一旁和洋娃娃玩耍。

B. 伴随着音乐声,向某个人微笑。

C. 伫立在人群中,目光望向舞者。

D. 紧张地把手放在了琴键上。

答案

点击下方空白处获得答案

D

选A、B、C的朋友出门右拐幼儿园不送~

对于我们,“接下茬”简直就是与生俱来的天赋技能。都坐在琴边了,不弹琴,难道还要弹脑瓜崩不成…这是不能再基础的逻辑和常识。

但同样的题目拿给电脑做,可就是灾难现场了。

今年8月,一批美国程序猿亲测了这道题目,结果,人类以88% vs. 60%的正确率力压AI,宣誓了人类在语言领域的天赋

但对AI业内人来说,60%这个结果已实属不易,毕竟人类自然语言这门学问,至今依旧是计算机最难彻底攻克的领域

最会聊天的AI:轻松接茬,举一反三

但AI的恐怖在于,仅仅用了两个月时间,它就已经全面赶超人类。同样一道题,拿到了和人类同样的正确率。

关注AI领域的小伙伴可能已经猜出来了,这个接下茬不卡壳的AI就是Google的Bert,今年10月发布,是近来最火爆的NLP(自然语言处理)模型

Bert全名Bidirectional Encoder Representations from Transformers,即来自Transformer的双向编码器表征。

这个死长的名字不是重点,效果才是关键。

今年10月,Bert模型一发布就燃爆了AI圈,它如此惊艳,不仅在机器阅读理解顶级水平测试SQuAD1.1中表现出惊人成绩,还在11种不同NLP测试中刷出了最佳成绩

变化莫测的人类语言难不倒它,Bert甚至还能将学到的语言融会贯通,运用到各种任务中,堪称地表最强NLP模型

甚至已经有人开始畅想,用Bert来改进经常让人搓火的智能音箱,以及律师事务所、医院、银行内部自动分析文件的AI软件。Bert不仅能为法律及医务界大大减负,也为最终实现真正的“机器对话”指明了方向。

当然,任何一种技术的应用都伴宿着弊端。GAN产出了一大堆以假乱真的“假照片”,而Bert则可能让社交媒体上出现更多语言领域的AI骗术。

在Bert诞生之前,OpenAI曾研发过一个类似的模型。研究人员让系统分析了数千本自由出版的书籍,浪漫小说、科幻小说一应俱全,其中的句子多达百万量级,围起来能绕地球三圈。

Bert和OpenAI所读的书目一毛一样,但有趣的是,它们却各自发展出了不同的特长技能。

比如,OpenAI能预测出下一个出现的单词,而Bert则擅长找到句子中遗漏的单词。但两者的核心,都离不开对句子形成方式的理解

习得这种接下茬的技能,有啥意义呢?

拿Bert举栗,给它一个句子:“那个人走进超市,买了一_______牛奶”。

空咋填?

首先,Bert得知道此处缺少的一个量词;然后,再从成千山万的词汇中,选出最合适的那一个。

所以,如果Bert能填出漏掉的词,那就意味着它理解了单词间的基本关系——它们是否是同一词类?它们是反义关系、近义关系,还是上下义关系?这个词是褒义还是贬义?

这样一来,无论在语音指令识别,或是文字对比匹配方面,都具备了灵活变通的能力。

想用传统的“同义替换法”抄袭别人的论文?呵呵,Bert一眼戳穿你。

纽约大学的教授Sam Bowman表示,尽管机器与人类进行自然语言处理的水平还相距甚远,这样的技术起码迈出了一小步。通过对庞大又混乱的信息进行整理,AI可以在各类重要决策上帮人们敲定主意

Bert开启NLP新时代

Bert系统一出道便风光无限,占据了11项NLP(自然语言处理)测试的榜首。在AI阅读理解的竞争中,它脱颖而出,在两个衡量指标上全面超越了人类的表现,不输同行各类模型。

上个月,谷歌已将Bert系统“开源”,并且开始用102种语言对Bert进行了训练。

来自爱尔兰的研究人员Sebastian Ruder将Bert这样的系统称为AI界的“警钟”。人们本以为语言技术已发展至上限,却没料到这只是沧海一粟,有太多的潜力尚未开发。

Bert系统背后复杂的数学系统被称为“神经网络”。近年来,机器的“深度学习”技术在面部识别以及自动驾驶汽车领域取得了肉眼可见的进步。

Bert之所以大获成功,部分功劳要归于近年来神经网络强大的计算机处理能力。谷歌为它提供了一箩筐的计算机处理器,专用来训练Bert的神经网络。效果也很显著,一目十行的Bert几天里就把维基百科分析了个遍。

Devlin表示,他们早就有意打造Bert这样的AI,但碍于处理数据的硬件能力跟不上,最近才将其付诸现实。机器“深度学习”能力一经普及,一系列AI技术都将取得突破,尤其在自然语言应用方向。

最近在人工智能界掀起一阵热潮的百度同传AI——STACL,就向我们展示了机器“接下茬”的可能落地场景。

STACL不用像人类同传一样,在发言者完整讲完一个短句后再翻。它可以边听边猜,靠脑补充句子,并实时翻译出来

比如,“美国总统布什在莫斯科与俄罗斯总统普京会晤”这句话,没等“会晤”一次出口,翻译已经预测出了“meet”。

脑补能力超强的STACL尽管也会出错,但基本都在可控范围内,并可以通过调整延时程度提高准确率。它的预测能力来源于两种翻译模型,其中之一便是上文中提到的Google Transformer。

然而,被视为NLP领域里程碑的Bert系统同时也遭到了一些质疑,因为我们能看到的都是研究人员目前取得进展的任务,还有许多失败的并未公开。

纽约大学的心理学教授Gary Marcus表示,他一直对神经网络的有效性持怀疑态度,并认为这些系统距真正理解人类的散文,还有很长的路要走。

一家参与了Bert研发的实验室CEO也赞同这一观点。尽管Bert通过了测试,这并不意味着机器从此通晓人类常识。

但不可否认的是,Bert的到来改变了自然语言研究的发展轨迹,一个NLP的新时代即将到来,我们拭目以待~

「NEXTTECH团队」等你来

兼职内容作者 | 翻译实习生 | 内容实习生

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181205A1GSSE00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券