腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
深度学习自然语言处理
专栏作者
举报
1009
文章
1167431
阅读量
160
订阅数
订阅专栏
申请加入专栏
全部文章
NLP 服务
深度学习
神经网络
机器学习
编程算法
模型
人工智能
https
数据
网络安全
论文
性能
其他
python
开源
linux
LLM
github
机器翻译
测试
腾讯云开发者社区
知识图谱
监督学习
批量计算
git
框架
强化学习
数据结构
pytorch
http
卷积神经网络
tcp/ip
css
系统
决策树
优化
图像处理
数据分析
ide
迁移学习
工作
大数据
nlp
设计
微信
chatgpt
token
基础
html
图像识别
学习方法
gpt
腾讯云测试服务
LoRa
云直播
游戏
编码
代理
函数
内存
数学
tensorflow
数据库
网站
推荐系统
无监督学习
机器人
工具
架构
算法
网络
sql
正则表达式
教育
agent
量化
视频
搜索
效率
语音识别
数据挖掘
go
node.js
apache
文件存储
缓存
processing
meta
word
区块链
bash
unix
医疗
nat
nest
data
embedding
function
openai
self
部署
排序
压缩
自然语言处理
java
.net
硬件开发
api
搜索引擎
bash 指令
电商
存储
分布式
shell
spark
gui
线性回归
keras
grep
安全
数据处理
windows
架构设计
迁移
联邦学习
ls
memory
model
prompt
翻译
华为
解决方案
苹果
索引
语法
人脸识别
官方文档
数字货币
自动驾驶
javascript
jquery ui
android
NAT 网关
大数据处理套件 TBDS
企业
自动化
爬虫
无人驾驶
numpy
信息流
云计算
对话机器人
特征工程
聚类算法
隐私计算
智能客服机器人
error
label
lstm
mean
network
object
sample
sequence
target
tree
变量
程序
服务
集合
技巧
路由
实践
统计
音频
费用中心
云点播
对象存储
负载均衡
腾讯云学堂
c 语言
c++
perl
lua
scala
r 语言
react
json
ajax
oracle
打包
matlab
中文分词
apt-get
mapreduce
黑石物理服务器
短视频
访问管理
SSL 证书
数据加密服务
文字识别
内容理解
金融
kubernetes
ssh
面向对象编程
opencv
unity
自动化测试
二叉树
单元测试
kernel
scikit-learn
模式识别
物联网
微服务
raft
云课堂
智能音乐
基础教育
alarm
analysis
apple
bat
behavior
bit
blender
branch
cat
chat
com
decode
distance
dst
encoding
entity
eval
fixed
google
graph
hidden
history
input
it
jupyter
kaggle
layer
lift
lisp
lm
marker
microsoft
modeling
models
next
pdf
perfect
pivot
plot
position
prediction
ps
random
state
table
tabular
text
title
torch
translation
twitter
video
vr
youtube
编程
表格
并发
程序设计
创业
动画
二维码
工程师
公众号
工作流
行业
集群
兼容性
接口
开发
开发者
科技
可视化
连接
漏洞
面试
配置
入门
事件
数据存储
数据科学
思维导图
通信
图表
协议
研发
异常
语音
重构
城市交通
搜索文章
搜索
搜索
关闭
强的离谱!串烧70+个Transformer模型,涵盖CV、NLP、金融、隐私计算...
联邦学习
隐私计算
编程算法
迁移学习
NLP 服务
Transformer 作为一种基于注意力的编码器 - 解码器架构,不仅彻底改变了自然语言处理(NLP)领域,还在计算机视觉(CV)领域做出了一些开创性的工作。与卷积神经网络(CNN)相比,视觉 Transformer(ViT)依靠出色的建模能力,在 ImageNet、COCO 和 ADE20k 等多个基准上取得了非常优异的性能。 正如德克萨斯大学奥斯汀分校的计算机科学家 Atlas Wang 说:我们有充分的理由尝试在整个 AI 任务范围内尝试使用 Transformer。 因此,无论是学术界的研究人员,
zenRRan
2022-04-15
727
0
Transformer模型与联邦机器学习详解!
联邦学习
隐私计算
编程算法
迁移学习
NLP 服务
Transformer 作为一种基于注意力的编码器 - 解码器架构,不仅彻底改变了自然语言处理(NLP)领域,还在计算机视觉(CV)领域做出了一些开创性的工作。与卷积神经网络(CNN)相比,视觉 Transformer(ViT)依靠出色的建模能力,在 ImageNet、COCO 和 ADE20k 等多个基准上取得了非常优异的性能。 正如德克萨斯大学奥斯汀分校的计算机科学家 Atlas Wang 说:我们有充分的理由尝试在整个 AI 任务范围内尝试使用 Transformer。 因此,无论是学术界的研究人员,
zenRRan
2022-04-08
1K
0
顶会论文看图对比学习(GNN+CL)研究趋势
监督学习
迁移学习
linux
数据分析
神经网络
随着对比学习(Contrastive Learning)在 CV、NLP 等领域大放异彩,其研究热度近年来也逐步走高。在图学习领域,由于图(Graph)数据也存在缺少标签或难以标注的问题,自 2020 年来,研究者们也着力于将对比学习技术应用于图表示学习任务上,取得了十分不错的效果,这一系列算法研究称为 图对比学习(Graph Contrastive Learning)。由于图是一种离散的数据结构,且一些常见的图学习任务中,数据之间往往存在紧密的关联(如链接预测)。如何针对这些特性设计图对比学习算法、对比学习又是如何更好地帮助学习图表示、节点表示的,这些问题仍在积极地探索中。
zenRRan
2021-11-02
3K
0
【强化学习】83篇文献-万字总结
编程算法
.net
监督学习
迁移学习
深度强化学习是深度学习与强化学习相结合的产物,它集成了深度学习在视觉等感知问题上强大的理解能力,以及强化学习的决策能力,实现了端到端学习。深度强化学习的出现使得强化学习技术真正走向实用,得以解决现实场景中的复杂问题。从2013年DQN(深度Q网络,deep Q network)出现到目前为止,深度强化学习领域出现了大量的算法,以及解决实际应用问题的论文,本文将阐述深度强化学习的发展现状,并对未来进行展望。
zenRRan
2020-02-26
782
0
NLP领域,哪些综述性的文章值得推荐?
NLP 服务
迁移学习
https
网络安全
神经网络
1. 《Neural Reading Comprehension And Beyond》
zenRRan
2019-12-23
1.3K
0
到底什么方法 训练1000个样本,就能完成400万条评论分类!
迁移学习
NLP 服务
得益于迁移学习,计算机视觉领域的发展非常迅速。有着几百万个参数的高度非线性模型通常需要大型数据集的训练,经过几天甚至几周的训练,也只能分辨猫狗。
zenRRan
2019-11-20
614
0
什么是Adam/ReLU/YOLO?这里有一份深度学习(.ai)词典
卷积神经网络
编程算法
监督学习
无监督学习
迁移学习
本文旨在解释深度学习的一些常用术语,尤其是吴恩达在deeplearning.ai的Coursera课程中会频繁提到的重要词汇。每个词条包含意义阐释、图片和相关链接(公众号读者请点击原文查看),希望能对深度学习初学者和从业者有所帮助。
zenRRan
2019-11-19
703
0
当前NLP迁移学习中的一些问题
NLP 服务
迁移学习
机器学习
神经网络
深度学习
目前NLP中最成功的迁移学习形式是序列迁移学习(STL),通常采用语言预训练的形式(https://arxiv.org/abs/1801.06146)。最近几乎所有的SOTA结果主要是由两步方案驱动的:
zenRRan
2019-11-12
367
0
【哈工大SCIR笔记】自然语言处理中的迁移学习(上)
监督学习
NLP 服务
迁移学习
机器学习
深度学习
来源:Transfer Learning in Natural Language Processing Tutorial (NAACL 2019)
zenRRan
2019-10-24
451
0
赛尔笔记 | 自然语言处理中的迁移学习(下)
迁移学习
监督学习
NLP 服务
相关概念:灾难遗忘 (McCloskey&Cohen, 1989; French, 1999) :一个模型忘记了它最初受过训练的任务
zenRRan
2019-10-24
1.1K
0
【ACL 2019】预训练语言模型的最新探索
NLP 服务
https
网络安全
迁移学习
ACL 2019 将于 7 月 28 日至 8 月 2 日在意大利佛罗伦萨举办。机器之心技术分析师曾祥极挑选了 ACL 2019 收录的与语言模型相关的三篇文章,分别从可变长度 Transformer、BERT 表征学习的深层次解析以及多语言迁移学习 BERT 三方面来介绍预训练语言模型的最新进展。
zenRRan
2019-07-30
669
0
资源 | 这套1600赞的NLP课程已开放,面向实战,视频代码都有
https
网络安全
python
迁移学习
NLP 服务
一套面向实战、号称“代码优先”的NLP课程来了,名字为A Code-First Introduction to Natural Language Processing,fast.ai出品,全程免费学习。
zenRRan
2019-07-12
883
0
NAACL 2019自然语言处理亮点
NLP 服务
迁移学习
【导读】NAACL是自然语言处理领域的顶会,今年NAACL于6月2日至7日于Minneapolis,MN 召开,本文梳理了NAACL2019的亮点。
zenRRan
2019-06-19
1.1K
0
ICLR 2019八大趋势:RNN正在失去光芒,强化学习仍最受欢迎
强化学习
监督学习
迁移学习
https
网络安全
ICLR 2019过去有几天了,作为今年上半年表现最为亮眼的人工智能顶会共收到1591篇论文,录取率为31.7%。
zenRRan
2019-05-22
415
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档