朴素人工智能

LV0
发表了文章

Soft-Masked BERT:文本纠错与BERT的最新结合

地址 | https://zhuanlan.zhihu.com/p/144995580

朴素人工智能
发表了文章

万字长文带你了解变分自编码器VAEs

原文标题:Understanding Variational Autoencoders (VAEs)

朴素人工智能
发表了文章

疫情期间网民情绪识别比赛后记

前阵子参加了 DataFountain 举办的 疫情期间网民情绪识别[1] 比赛,最终成绩排在第 20 名,成绩不是太好,本文就是纯粹记录一下,遇到太年轻的想法...

朴素人工智能
发表了文章

[预训练语言模型专题] XLNet:公平一战!多项任务效果超越BERT

感谢清华大学自然语言处理实验室对预训练语言模型架构的梳理,我们将沿此脉络前行,探索预训练语言模型的前沿技术,红框中为已介绍的文章,绿框中为本期介绍的XLNet,...

朴素人工智能
发表了文章

万字长文带你一览ICLR2020最新Transformers进展(下)

原文链接:http://gsarti.com/post/iclr2020-transformers/

朴素人工智能
发表了文章

万字长文带你一览ICLR2020最新Transformers进展(上)

原文链接:http://gsarti.com/post/iclr2020-transformers/

朴素人工智能
发表了文章

convlab2中强化学习方法之对话策略学习浅析

可以看到,Success rate 在RulePolicy中的表现远高于基于强化学习模型的policy。尽管如此,本文还是以学习的态度进入github地址分析了...

朴素人工智能
发表了文章

[预训练语言模型专题] 结合HuggingFace代码浅析Transformer

5-8: [BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]

朴素人工智能
发表了文章

[预训练语言模型专题] BART & MASS 自然语言生成任务上的进步

BART和MASS都是2019年发布的,面向生成任务,基于Transformer神经翻译结构的序列到序列模型。分别由Facebook 和微软亚洲研究院提出。他们...

朴素人工智能
发表了文章

Transformer多轮对话改写实践

本文介绍了多轮对话存在指代和信息省略的问题,同时提出了一种新方法-抽取式多轮对话改写,可以更加实用的部署于线上对话系统,并且提升对话效果。

朴素人工智能
发表了文章

[预训练语言模型专题] Transformer-XL 超长上下文注意力模型

5-8:[BERT来临]、[浅析BERT代码]、[ERNIE合集]、[MT-DNN(KD)]

朴素人工智能
发表了文章

LaserTagger: 文本生成任务的序列标注解决方案

今天要和大家分享的是2019年Google Research的一篇关于文本生成的论文[1],已开源[2]。

朴素人工智能
发表了文章

能跟你聊DOTA的神经对话模型:Meena&DialoGPT

提到对话机器人或者聊天机器人,国内的朋友可能先想到的是微软小冰或者苹果Siri。这两个机器人由于需要完成一些功能性的任务,都采用了模块化设计,虽然神经网络在其中...

朴素人工智能
发表了文章

REALM: Retrieval-Augmented Language Model Pre Training

去年可以说是语言模型快速发展的一年,BERT、XLNET、Albert等等模型不断刷新各个NLP榜单。在NLP榜单中比较引人注目的应该属于阅读理解型的任务,例如...

朴素人工智能
发表了文章

Kaggle TensorFlow 2.0 Question Answering 16名复盘

这是Kaggle春节前结束的一个阅读理解的比赛[1],我和管老师曹老师最终获得16/1233的成绩。成绩来自于管老师的提交,我自己的最好成绩大概排在23名的样子...

朴素人工智能
发表了文章

[预训练语言模型专题] 银色独角兽GPT家族

在具体看论文之前,我们先来看看GPT-2,也是GPT家族巨人的惊人表现做一个开胃菜。在一个生成式任务上,OpenAI给出了这么一个开头:

朴素人工智能
发表了文章

[预训练语言模型专题] Huggingface简介及BERT代码浅析

Hugging face? 是一家总部位于纽约的聊天机器人初创服务商,开发的应用在青少年中颇受欢迎,相比于其他公司,Hugging Face更加注重产品带来的情...

朴素人工智能
发表了文章

叫我如何相信你?聊一聊语言模型的校准

在实际的NLP业务场景中,我们经常遇到一个问题就是调阈值。因为我们需要把模型输出层sigmoid函数或者softmax函数给出的连续的预测概率转化成离散输出,所...

朴素人工智能
发表了文章

[预训练语言模型专题] 百度出品ERNIE合集,问国产预训练语言模型哪家强

ERNIE: Enhanced Representation through Knowledge Integration(2019)

朴素人工智能

个人简介

个人成就

扫码关注云+社区

领取腾讯云代金券