腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
AI小白入门
专栏作者
举报
163
文章
192919
阅读量
36
订阅数
订阅专栏
申请加入专栏
全部文章(163)
神经网络(69)
机器学习(64)
深度学习(62)
编程算法(51)
NLP 服务(46)
人工智能(41)
https(30)
网络安全(23)
github(20)
python(16)
git(15)
决策树(8)
监督学习(7)
开源(6)
线性回归(6)
迁移学习(6)
tensorflow(5)
机器翻译(5)
数据挖掘(4)
中文分词(4)
图像处理(4)
强化学习(4)
numpy(4)
pytorch(4)
数据分析(4)
聚类算法(4)
linux(3)
批量计算(3)
知识图谱(3)
腾讯云测试服务(3)
http(3)
卷积神经网络(3)
数据结构(3)
c++(2)
css(2)
matlab(2)
serverless(2)
tcp/ip(2)
无监督学习(2)
layer(2)
语音识别(1)
自动驾驶(1)
javascript(1)
bootstrap(1)
数据库(1)
sql(1)
ide(1)
api(1)
搜索引擎(1)
apache(1)
mapreduce(1)
GPU 云服务器(1)
文件存储(1)
日志服务(1)
电商(1)
容器(1)
存储(1)
无人驾驶(1)
正则表达式(1)
面向对象编程(1)
推荐系统(1)
keras(1)
大数据(1)
架构设计(1)
processing(1)
分类算法(1)
apple(1)
embedding(1)
error(1)
lisp(1)
mapping(1)
mean(1)
policy(1)
position(1)
text(1)
token(1)
volume(1)
word2vec(1)
程序设计(1)
论文(1)
搜索文章
搜索
搜索
关闭
【Pre-Training】XLNet:预训练最强,舍我其谁
tcp/ip
NLP 服务
今天学习的是谷歌大脑的同学和 CMU 的同学的论文《XLNet: Generalized Autoregressive Pretraining for Language Understanding》,于 2019 年发表于 NIPS,目前引用超 300 次。
yuquanle
2020-04-22
851
0
【NLP】Facebook提出的预训练模型BART
NLP 服务
tcp/ip
机器翻译
近日,Facebook 发表论文,提出一种为预训练序列到序列模型而设计的去噪自编码器 BART。BART 通过以下步骤训练得到:1)使用任意噪声函数破坏文本;2)学习模型来重建原始文本。BART 使用基于 Transformer 的标准神经机器翻译架构,可泛化 BERT(具备双向编码器)、GPT(具备从左至右的解码器)等近期出现的预训练模型,尽管它非常简洁。Facebook 研究人员评估了多种噪声方法,最终通过随机打乱原始句子的顺序,再使用新型文本填充方法(即用单个 mask token 替换文本段)找出最优性能。
yuquanle
2019-11-25
6.5K
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档