腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
mathor
专栏作者
举报
447
文章
591686
阅读量
50
订阅数
订阅专栏
申请加入专栏
全部文章(447)
其他(110)
编程算法(77)
神经网络(43)
人工智能(43)
机器学习(36)
深度学习(34)
java(32)
ios(18)
NLP 服务(14)
c++(14)
批量计算(12)
存储(12)
pytorch(12)
alpha(12)
sum(12)
text(11)
serverless(10)
linux(8)
容器(8)
jsp(7)
html(7)
游戏(6)
windows(6)
数据结构(6)
token(6)
语音识别(5)
matlab(5)
语音合成(5)
腾讯云测试服务(5)
http(5)
卷积神经网络(5)
安全(5)
https(5)
embedding(5)
max(5)
size(5)
word2vec(5)
对象存储(4)
python(4)
git(4)
spring(4)
jdk(4)
erp(4)
面向对象编程(4)
数据分析(4)
int(4)
key(4)
nlp(4)
php(3)
css(3)
文件存储(3)
日志服务(3)
网站(3)
网络安全(3)
二叉树(3)
data(3)
google(3)
gpu(3)
hidden(3)
rank(3)
self(3)
tensor(3)
vector(3)
word(3)
编码(3)
数据(3)
bash(2)
node.js(2)
打包(2)
ide(2)
eclipse(2)
github(2)
开源(2)
缓存(2)
shell(2)
正则表达式(2)
gui(2)
numpy(2)
hashmap(2)
数据处理(2)
nat(2)
腾讯云开发者社区(2)
error(2)
layer(2)
mask(2)
model(2)
partial(2)
random(2)
事件(2)
网络(2)
免费套餐(1)
官方文档(1)
数据挖掘(1)
tensorflow(1)
c 语言(1)
.net(1)
r 语言(1)
bootstrap(1)
汇编语言(1)
嵌入式(1)
数据库(1)
oracle(1)
api(1)
tomcat(1)
搜索引擎(1)
bash 指令(1)
云直播(1)
时序数据库 CTSDB(1)
海外加速(1)
机器翻译(1)
企业(1)
运维(1)
黑客(1)
jvm(1)
wordpress(1)
hive(1)
yum(1)
监督学习(1)
线性回归(1)
asp(1)
cdn(1)
kernel(1)
iis(1)
网站建设(1)
特征工程(1)
功能测试(1)
性能测试(1)
黑盒测试(1)
es(1)
汽车(1)
architecture(1)
autoencoder(1)
block(1)
channel(1)
clone(1)
combine(1)
dagger(1)
dataset(1)
device(1)
dfs(1)
distance(1)
distribution(1)
document(1)
echarts(1)
encoding(1)
epoch(1)
equation(1)
excel(1)
fixed(1)
fork(1)
for循环(1)
function(1)
gan(1)
global(1)
hashtable(1)
identity(1)
input(1)
label(1)
lambda(1)
list(1)
load(1)
local(1)
ls(1)
min(1)
mnist(1)
module(1)
nan(1)
normalization(1)
object(1)
pandas(1)
pear(1)
pool(1)
position(1)
precision(1)
prediction(1)
profiling(1)
reshape(1)
rows(1)
sample(1)
search(1)
sequence(1)
sign(1)
spa(1)
src(1)
steam(1)
subset(1)
target(1)
testing(1)
time(1)
torch(1)
txt(1)
virtual(1)
web(1)
window(1)
zero(1)
表格(1)
动态规划(1)
二进制(1)
函数(1)
技巧(1)
解决方案(1)
开发(1)
可视化(1)
论文(1)
数组(1)
搜索(1)
统计(1)
优化(1)
语音(1)
搜索文章
搜索
搜索
关闭
长尾分布的多标签文本分类平衡方法
NLP 服务
长尾分布各位肯定并不陌生,指的是少数几个类别却有大量样本,而大部分类别都只有少量样本的情况,如下图所示
mathor
2021-11-22
3.1K
0
从零训练一个超越预训练的NLP模型
编程算法
NLP 服务
本文基于Arxiv上的一篇论文NLP From Scratch Without Large-Scale Pretraining: A Simple and Efficient Framework,清华的几位研究者提出一种任务驱动的语言模型TLM(Task-driven Language Modeling)。不需要大规模的预训练,从零训练一个大模型也能取得SOTA的效果,源码在yaoxingcheng/TLM
mathor
2021-11-17
1.2K
0
简单到令人沮丧的替代MLM的预训练任务?
NLP 服务
编程算法
EMNLP2021有一篇论文标题名为Frustratingly Simple Pretraining Alternatives to Masked Language Modeling,翻译过来就是「简单到令人沮丧的替代MLM的预训练任务」。但我给它加了个问号,因为我觉得首先作者提出的这些方法,对于模型来说太难了,即便是让我去做他所提出的这些预训练任务,我都不一定做得出来。其次是从结果来看效果似乎一般般
mathor
2021-11-12
1.1K
0
对抗验证:划分一个跟测试集更接近的验证集
腾讯云测试服务
spring
NLP 服务
不论是打比赛、做实验还是搞工程,我们经常会遇到训练集与测试集分布不一致的情况。一般来说,我们会从训练集中划分出一个验证集,通过这个验证集来调整一些超参数,并保存在验证集上效果最好的模型。然而,如果验证集本身和测试集差别比较大,那么在验证集上表现很好的模型不一定在测试集上表现同样好,因此如何让划分出来的验证集跟测试集的分布差异更小,是一个值得研究的课题
mathor
2021-07-07
2.1K
0
积分梯度:一种新颖的神经网络可视化方法
神经网络
NLP 服务
本文介绍一种神经网络的可视化方法:积分梯度(Integrated Gradients),它首先在论文《Gradients of Counterfactuals》中提出,后来《Axiomatic Attribution for Deep Networks》再次介绍了它,两篇论文作者都是一样的,内容也大体上相同,后一篇相对来说更易懂一些,如果要读原论文的话,建议大家优先读后一篇。当然,它已经是2016~2017年间的工作了,“新颖”说的是它思路上的创新有趣,而不是指最近发表
mathor
2021-05-20
1.6K
0
NLP 中的对抗训练(附 PyTorch 实现)
NLP 服务
要认识对抗训练,首先要了解 "对抗样本",它首先出现在论文 Intriguing properties of neural networks 之中。简单来说,它是指对于人类来说 "看起来" 几乎一样,但对于模型来说预测结果却完全不一样的样本,比如下面的经典例子(一只熊猫加了点扰动就被识别成了长臂猿)
mathor
2021-05-12
2.5K
0
BPE算法详解
NLP 服务
编程算法
es
在NLP模型中,输入通常是一个句子,例如"I went to New York last week.",一句话中包含很多单词(token)。传统的做法是将这些单词以空格进行分隔,例如['i', 'went', 'to', 'New', 'York', 'last', 'week']。然而这种做法存在很多问题,例如模型无法通过old, older, oldest之间的关系学到smart, smarter, smartest之间的关系。如果我们能使用将一个token分成多个subtokens,上面的问题就能很好的解决。本文将详述目前比较常用的subtokens算法——BPE(Byte-Pair Encoding)
mathor
2021-04-02
2.5K
0
BERT and it's family
NLP 服务
预训练语言模型的缩写大多是芝麻街的人物。这显然是起名艺术大师们的有意为之。他们甚至都可以抛弃用首字母缩写的原则去硬凑出芝麻街人名
mathor
2020-11-09
1.1K
0
三种Cross-lingual模型 (XLM, XLM-R, mBART)详解
NLP 服务
本文将详述三种Cross-lingual模型,按照其在Arxiv上发表论文的时间,分别是XLM(2019/1/22)、XLM-R(2019/11/5)、mBART(2020/1/22),有意思的是这三篇文章均出自FaceBook,他们是不是对跨语言模型有什么执念?
mathor
2020-11-04
8.1K
0
XLNet详解
NLP 服务
2018 年,谷歌发布了基于双向 Transformer 的大规模预训练语言模型BERT,刷新了 11 项 NLP 任务的最优性能记录,为 NLP 领域带来了极大的惊喜。很快,BERT 就在圈内普及开来,也陆续出现了很多与它相关的新工作
mathor
2020-08-11
1.1K
0
BERT详解(附带ELMo、GPT介绍)
日志服务
NLP 服务
BERT全称为Bidirectional Encoder Representation from Transformer,是Google以无监督的方式利用大量无标注文本「炼成」的语言模型,其架构为Transformer中的Encoder(BERT=Encoder of Transformer)
mathor
2020-07-22
7.3K
0
Beyond Accuracy:Behavioral Testing of NLP Models with Checklist 论文阅读
腾讯云测试服务
黑盒测试
NLP 服务
功能测试
编程算法
本文主要介绍以及翻译一篇 ACL2020 Best Paper Beyond Accuracy:Behavioral Testing of NLP Models with Checklist
mathor
2020-07-14
1.2K
0
NNLM的PyTorch实现
pytorch
编程算法
java
批量计算
NLP 服务
本文主要首先介绍一篇年代久远但意义重大的论文A Neural Probabilistic Language Model(2003),然后给出PyTorch实现
mathor
2020-06-11
1.3K
0
LSTM
机器学习
深度学习
人工智能
NLP 服务
长时间的短期记忆网络(Long Short-Term Memory Networks),很多地方翻译为长短期记忆网络,给人一种歧义,以为是网络一会儿能记很长的内容,一会儿能记很短的内容,但其实正确的翻译应该是长时间的短期记忆网络。它的本质就是能够记住很长时期内的信息
mathor
2020-02-14
824
0
没有更多了
社区活动
腾讯技术创作狂欢月
“码”上创作 21 天,分 10000 元奖品池!
立即发文
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档