首页
学习
活动
专区
工具
TVP
发布

深度学习自然语言处理

专栏作者
1009
文章
1167431
阅读量
160
订阅数
强的离谱!串烧70+个Transformer模型,涵盖CV、NLP、金融、隐私计算...
Transformer 作为一种基于注意力的编码器 - 解码器架构,不仅彻底改变了自然语言处理(NLP)领域,还在计算机视觉(CV)领域做出了一些开创性的工作。与卷积神经网络(CNN)相比,视觉 Transformer(ViT)依靠出色的建模能力,在 ImageNet、COCO 和 ADE20k 等多个基准上取得了非常优异的性能。 正如德克萨斯大学奥斯汀分校的计算机科学家 Atlas Wang 说:我们有充分的理由尝试在整个 AI 任务范围内尝试使用 Transformer。 因此,无论是学术界的研究人员,
zenRRan
2022-04-15
7270
Transformer模型与联邦机器学习详解!
Transformer 作为一种基于注意力的编码器 - 解码器架构,不仅彻底改变了自然语言处理(NLP)领域,还在计算机视觉(CV)领域做出了一些开创性的工作。与卷积神经网络(CNN)相比,视觉 Transformer(ViT)依靠出色的建模能力,在 ImageNet、COCO 和 ADE20k 等多个基准上取得了非常优异的性能。 正如德克萨斯大学奥斯汀分校的计算机科学家 Atlas Wang 说:我们有充分的理由尝试在整个 AI 任务范围内尝试使用 Transformer。 因此,无论是学术界的研究人员,
zenRRan
2022-04-08
1K0
顶会论文看图对比学习(GNN+CL)研究趋势
随着对比学习(Contrastive Learning)在 CV、NLP 等领域大放异彩,其研究热度近年来也逐步走高。在图学习领域,由于图(Graph)数据也存在缺少标签或难以标注的问题,自 2020 年来,研究者们也着力于将对比学习技术应用于图表示学习任务上,取得了十分不错的效果,这一系列算法研究称为 图对比学习(Graph Contrastive Learning)。由于图是一种离散的数据结构,且一些常见的图学习任务中,数据之间往往存在紧密的关联(如链接预测)。如何针对这些特性设计图对比学习算法、对比学习又是如何更好地帮助学习图表示、节点表示的,这些问题仍在积极地探索中。
zenRRan
2021-11-02
3K0
【强化学习】83篇文献-万字总结
深度强化学习是深度学习与强化学习相结合的产物,它集成了深度学习在视觉等感知问题上强大的理解能力,以及强化学习的决策能力,实现了端到端学习。深度强化学习的出现使得强化学习技术真正走向实用,得以解决现实场景中的复杂问题。从2013年DQN(深度Q网络,deep Q network)出现到目前为止,深度强化学习领域出现了大量的算法,以及解决实际应用问题的论文,本文将阐述深度强化学习的发展现状,并对未来进行展望。
zenRRan
2020-02-26
7820
NLP领域,哪些综述性的文章值得推荐?
1. 《Neural Reading Comprehension And Beyond》
zenRRan
2019-12-23
1.3K0
到底什么方法 训练1000个样本,就能完成400万条评论分类!
得益于迁移学习,计算机视觉领域的发展非常迅速。有着几百万个参数的高度非线性模型通常需要大型数据集的训练,经过几天甚至几周的训练,也只能分辨猫狗。
zenRRan
2019-11-20
6140
什么是Adam/ReLU/YOLO?这里有一份深度学习(.ai)词典
本文旨在解释深度学习的一些常用术语,尤其是吴恩达在deeplearning.ai的Coursera课程中会频繁提到的重要词汇。每个词条包含意义阐释、图片和相关链接(公众号读者请点击原文查看),希望能对深度学习初学者和从业者有所帮助。
zenRRan
2019-11-19
7030
当前NLP迁移学习中的一些问题
目前NLP中最成功的迁移学习形式是序列迁移学习(STL),通常采用语言预训练的形式(https://arxiv.org/abs/1801.06146)。最近几乎所有的SOTA结果主要是由两步方案驱动的:
zenRRan
2019-11-12
3670
【哈工大SCIR笔记】自然语言处理中的迁移学习(上)
来源:Transfer Learning in Natural Language Processing Tutorial (NAACL 2019)
zenRRan
2019-10-24
4510
赛尔笔记 | 自然语言处理中的迁移学习(下)
相关概念:灾难遗忘 (McCloskey&Cohen, 1989; French, 1999) :一个模型忘记了它最初受过训练的任务
zenRRan
2019-10-24
1.1K0
【ACL 2019】预训练语言模型的最新探索
ACL 2019 将于 7 月 28 日至 8 月 2 日在意大利佛罗伦萨举办。机器之心技术分析师曾祥极挑选了 ACL 2019 收录的与语言模型相关的三篇文章,分别从可变长度 Transformer、BERT 表征学习的深层次解析以及多语言迁移学习 BERT 三方面来介绍预训练语言模型的最新进展。
zenRRan
2019-07-30
6690
资源 | 这套1600赞的NLP课程已开放,面向实战,视频代码都有
一套面向实战、号称“代码优先”的NLP课程来了,名字为A Code-First Introduction to Natural Language Processing,fast.ai出品,全程免费学习。
zenRRan
2019-07-12
8830
NAACL 2019自然语言处理亮点
【导读】NAACL是自然语言处理领域的顶会,今年NAACL于6月2日至7日于Minneapolis,MN 召开,本文梳理了NAACL2019的亮点。
zenRRan
2019-06-19
1.1K0
ICLR 2019八大趋势:RNN正在失去光芒,强化学习仍最受欢迎
ICLR 2019过去有几天了,作为今年上半年表现最为亮眼的人工智能顶会共收到1591篇论文,录取率为31.7%。
zenRRan
2019-05-22
4150
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档