前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >问答 | 谷歌 AI 发布 BERT 模型,打破十一项 NLP 记录,会开启 NLP 新时代吗?

问答 | 谷歌 AI 发布 BERT 模型,打破十一项 NLP 记录,会开启 NLP 新时代吗?

作者头像
AI研习社
发布2018-10-24 10:16:23
6320
发布2018-10-24 10:16:23
举报
文章被收录于专栏:AI研习社AI研习社

这里是 AI 研习社,我们的问答版块已经正式推出了!欢迎大家来多多交流~

http://www.gair.link/page/question

(戳文末阅读原文直接进)

社长为你推荐来自 AI 研习社问答社区的精华问答。如有你也有问题,欢迎进社区提问。

话不多说,直接上题

@伊丽莎白 问:

谷歌 AI 发布 BERT 模型,打破十一项 NLP 记录,会开启 NLP 新时代吗?

日前,谷歌 AI 团队发布 BERT 模型,在机器阅读理解水平测试 SQuAD1.1 中表现出相当不错的成绩:在 11 项 NLP 任务中刷新当前最优性能记录。BERT 的 GLUE 基准提升至 80.4%(绝对改进:7.6%),MultiNLI 准确率达到 86.7%(绝对改进:5.6%),在 SQuAD v1.1 的问答测试中,F1 得分提升至 93.2 分(提高 1.5 分),比人类表现高出 2 分。

论文地址:https://arxiv.org/abs/1810.04805

谷歌大脑科学家 Thang Luong 甚至在 Twitter 表示:A new era of NLP has just begun.

研究 NLP 的小伙伴们,看过这篇 paper 的你,如何看待 BERT??

来自社友的回答

▼▼▼

@ShtPgsHus_

总结就是目前看来局限任务结果的还是数据量,一个超强的预训练模型可以提供非常好的文本表示,几乎不需要花里胡哨的各种机制,就可以在各种NLP上取得极好的效果。从CoVe,ELMO,GPT,再到现在的BERT,对于深度学习下的文本表示确实值得重新思考。NLP不同于CV,所有的信息都在像素里,文本的理解需要大量的语法及语义信息,对标注数据的需求很大,同时又没有像ImageNet一样的大型数据集。大规模语料pretrain的模型可以提供更加泛化的文本表示能力。

@亦熹

前有微软阿里,后有讯飞谷歌,2018当真是NLP的腾飞元年!

@丛末

不明觉厉

@酱番梨

谷歌牛逼

@Mikasa

谷歌确实实力强大,但 NLP 的发展,还远着呢~

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-10-16,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI研习社 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 社长为你推荐来自 AI 研习社问答社区的精华问答。如有你也有问题,欢迎进社区提问。
  • 话不多说,直接上题
    • 谷歌 AI 发布 BERT 模型,打破十一项 NLP 记录,会开启 NLP 新时代吗?
    领券
    问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档