首页标签自然语言

#自然语言

自然语言处理是计算机科学领域与人工智能领域中的一个重要方向。 它研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。

大数据技术之_24_电影推荐系统项目_02_Python 基础语法复习

黑泽君

第一步:下载 python 环境安装包   官方地址:https://www.python.org/ 第二步:安装 python 环境   参考链接:windo...

6530

ICML 2019 | 序列到序列自然语言生成任务超越BERT、GPT!微软提出通用预训练模型MASS

AI科技评论

编者按:从2018年开始,预训练(pre-train) 毫无疑问成为NLP领域最热的研究方向。借助于BERT和GPT等预训练模型,人类在多个自然语言理解任务中取...

6650

AAAI 2019 Gaussian Transformer: 一种自然语言推理的轻量方法

zenRRan

针对自然语言推理任务的前人工作的不足,我们提出了基于 Gaussian self-attention 的 Gaussian Transformer 模型。实验表...

7240

除了检查语法,用上深度学习的编辑器也能自动优化代码

机器之心

IDE 除了检查语法错误或拼写错误,能不能更高级一点?借助深度学习,代码编辑能更智能,编辑器也能理解一些高级语义。在这篇文章中,CMU 和微软的研究者介绍了一篇...

10020

利用上下文常识,让AI读懂不完整人类指令 | 一周AI最火论文

大数据文摘

呜啦啦啦啦啦啦啦大家好,本周的AI Scholar Weekly栏目又和大家见面啦!

8530

超越BERT、GPT,微软提出通用预训练模型MASS

机器之心

BERT通常只训练一个编码器用于自然语言理解,而GPT的语言模型通常是训练一个解码器。如果要将BERT或者GPT用于序列到序列的自然语言生成任务,通常只有分开预...

8240

不只是拼写检查:用深度学习增强源码开发和自然语言编辑

AiTechYun

深度学习在生成和理解自然语言和源代码方面有着很好的成绩。这项工作的主要挑战是设计一种专门编码编辑的方法,以便通过深度学习技术对编辑进行处理和自动化。为了理解我们...

8730

【ICML 2019】微软最新通用预训练模型MASS,超越BERT、GPT!

新智元

从 2018 年开始,预训练(pre-train) 毫无疑问成为 NLP 领域最热的研究方向。

10730

「无心插柳柳成荫」的乔姆斯基 | 追溯 AI 大师系列

AI科技评论

艾弗拉姆·诺姆·乔姆斯基博士(Avram Noam Chomsky,1928 年 12 月 7 日—),麻省理工学院语言学的荣誉退休教授,发表的《生成语法》被认...

13730

CVPR2019满分文章 | 强化跨模态匹配和自监督模仿学习(文末源码)

计算机视觉战队

今天说的就是一个导航技术——视觉-语言导航(Vision-language navigation,VLN),其任务就是指在真实的三维环境中让具有实体的智能体进行...

9420

比较好的中文分词方案汇总推荐

IT小白龙

在人机自然语言交互中,成熟的中文分词算法能够达到更好的自然语言处理效果,帮助计算机理解复杂的中文语言。竹间智能在构建中文自然语言对话系统时,结合语言学不断优化,...

7620

Facebook开发基于文本的冒险游戏,研究AI智能体的对话和行为

AiTechYun

AI可以编写新闻快讯,并在提示下连贯地重复一些内容,但它能学会驾驭一款基于文本的幻想游戏吗?Facebook AI研究,洛林计算机科学及其应用研究实验室,以及伦...

7740

干货 | 强化学习中,如何从稀疏和不明确的反馈中学习泛化

AI研习社

研究此类问题中 RL 算法性能的一种常用方法是通过语言理解任务,在该任务中,代理接收自然语言输入,并且生成复杂的响应以实现输入中指定的目标,同时它只接收二进制形...

10630

收藏 | 全网最大机器学习数据集,视觉、NLP、音频都在这了

CDA数据分析师

【导读】本文介绍一个机器学习大型数据集的汇总网站,网站目前提供约 70 个最新数据集,涵盖了计算机视觉、自然语言理解和音频三大领域。

10220

北京大学万小军教授:让机器进行文学创作,有什么进展和挑战?

数据派THU

导语:本文是北京大学万小军教授在Byte Tech 2019 机器智能前沿论坛上的分享。Byte Tech 2019由中国人工智能学会、字节跳动、清华大学联合主...

11420

业界 | 骚扰电话太烦人?转接 AI 帮你回应吧

AI研习社

聂再清此前在微软亚洲研究院主要负责微软自然语言理解、实体挖掘的研发工作。在对象级别搜索与大数据挖掘方面申请国际专利十余项。

7720

开发 | 表现比 BERT 更胜一筹?微软用于学习通用语言嵌入的 MT-DNN 即将开源

AI研习社

语言嵌入(Language embedding)是将符号化的自然语言文本(例如单词、短语和句子)映射到语义向量表示的过程,它是自然语言理解(NLU)深度学习方法...

11320

Facebook最新论文:跨语言模型预训练,三大任务刷新最高性能

新智元

句子编码器的生成式预训练(Generative pretraining)已经使许多自然语言理解的 benchmark 取得了显著的进步。在此背景下,Transf...

9810

谷歌提出元奖励学习,两大基准测试刷新最优结果

新智元

并且在解决诸如:玩视频游戏、连续控制和机器人学习等具有挑战性的任务方面,取得了显着成功。

5830

NAACL 2019 | 怎样生成语言才能更自然,斯坦福提出超越Perplexity的评估新方法

机器之心

困惑度是评估生成语言是否「自然」的最常见标准,它的值越小,则表示模型生成的句子越接近人类语言。但是这种基于统计的方法并不能很好地评估生成质量,因此本文提出一种新...

9620

扫码关注云+社区