这里是 AI 研习社,我们的问答版块已经正式推出了!欢迎大家来多多交流~
http://www.gair.link/page/question
(戳文末阅读原文直接进)
@伊丽莎白 问:
日前,谷歌 AI 团队发布 BERT 模型,在机器阅读理解水平测试 SQuAD1.1 中表现出相当不错的成绩:在 11 项 NLP 任务中刷新当前最优性能记录。BERT 的 GLUE 基准提升至 80.4%(绝对改进:7.6%),MultiNLI 准确率达到 86.7%(绝对改进:5.6%),在 SQuAD v1.1 的问答测试中,F1 得分提升至 93.2 分(提高 1.5 分),比人类表现高出 2 分。
论文地址:https://arxiv.org/abs/1810.04805
谷歌大脑科学家 Thang Luong 甚至在 Twitter 表示:A new era of NLP has just begun.
研究 NLP 的小伙伴们,看过这篇 paper 的你,如何看待 BERT??
来自社友的回答
▼▼▼
@ShtPgsHus_
总结就是目前看来局限任务结果的还是数据量,一个超强的预训练模型可以提供非常好的文本表示,几乎不需要花里胡哨的各种机制,就可以在各种NLP上取得极好的效果。从CoVe,ELMO,GPT,再到现在的BERT,对于深度学习下的文本表示确实值得重新思考。NLP不同于CV,所有的信息都在像素里,文本的理解需要大量的语法及语义信息,对标注数据的需求很大,同时又没有像ImageNet一样的大型数据集。大规模语料pretrain的模型可以提供更加泛化的文本表示能力。
@亦熹
前有微软阿里,后有讯飞谷歌,2018当真是NLP的腾飞元年!
@丛末
不明觉厉
@酱番梨
谷歌牛逼
@Mikasa
谷歌确实实力强大,但 NLP 的发展,还远着呢~