腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
首页
学习
活动
专区
工具
TVP
最新优惠活动
返回腾讯云官网
NLP算法工程师之路
专栏成员
举报
72
文章
87010
阅读量
17
订阅数
订阅专栏
申请加入专栏
全部文章(72)
神经网络(21)
深度学习(21)
机器学习(20)
人工智能(17)
编程算法(12)
https(10)
网络安全(7)
python(6)
NLP 服务(5)
tensorflow(4)
github(3)
网站(3)
模型(3)
html(2)
git(2)
unix(2)
容器镜像服务(2)
http(2)
容器(2)
ssh(2)
卷积神经网络(2)
keras(2)
二叉树(2)
hexo(2)
迁移学习(2)
部署(2)
java(1)
php(1)
bash(1)
单片机(1)
数据库(1)
云数据库 SQL Server(1)
打包(1)
api(1)
搜索引擎(1)
sphinx(1)
linux(1)
centos(1)
bash 指令(1)
mapreduce(1)
文件存储(1)
访问管理(1)
图像处理(1)
svg(1)
游戏(1)
缓存(1)
爬虫(1)
hadoop(1)
图像识别(1)
hive(1)
yum(1)
hashmap(1)
监督学习(1)
决策树(1)
pytorch(1)
tcp/ip(1)
markdown(1)
gcc(1)
anaconda(1)
机器人(1)
数据结构(1)
系统架构(1)
analytics(1)
conda(1)
contains(1)
cpython(1)
dataset(1)
gpu(1)
graph(1)
jieba(1)
network(1)
pdf(1)
self(1)
set(1)
sum(1)
text(1)
version(1)
zip(1)
论文(1)
数据(1)
终端(1)
搜索文章
搜索
搜索
关闭
《Retrieve-and-Read,Multi-task Learning of Information Retrieval and Reading Comprehension》的Reference
网站
机器学习
神经网络
深度学习
人工智能
Text Span的评估指标: For text-span questions whose answer is string(s), we need to compare the predicted string(s) with the ground truth answer string(s) (i.e., the correct answer). RCstyle QA task generally uses evaluation metrics Exact Match (EM) and F1 score (F1) proposed by Rajpurkar et al. [94] for text-span questions [104, 116]. EM assigns credit 1.0 to questions whose predicted answer is exactly the same as the ground truth answer and 0.0 otherwise, so the computation of EM is the same as the metric Accuracy but for different categories of RC-style QA. F1 measures the average word overlap between the predicted answer and the ground truth answer. These two answers are both considered as bag of words with lower cases and ignored the punctuation and articles “a”, “an” and “the”. For example, the answer “The Question Answering System” is treated as a set of words {question, answering, system}. Therefore, F1 of each text-span question can be computed at word-level by Equation 2.2
故事尾音
2019-12-18
816
0
THU深圳研究院:大数据机器学习
机器学习
监督学习
神经网络
深度学习
人工智能
B站视频:https://www.bilibili.com/video/av67224054
故事尾音
2019-12-18
603
0
过拟合现象及解决方案
决策树
机器学习
神经网络
深度学习
人工智能
每迭代几次就对模型进行检查它在验证集上的工作情况,并保存每个比以前所有迭代时都要好的模型。此外,还设置最大迭代次数这个限制,超过此值时停止学习。
故事尾音
2019-12-18
1.6K
0
NLP面试比较重要的知识点
编程算法
机器学习
神经网络
输入补全可以用哪个数据结构来做?(字典树) 假如有10亿条搜索请求,怎么找出最热的前10条? 讲一下LDA,讲一下隐狄利克雷分布,里面有个辛普森采样了解吗 pointwise、pairwise 、listwise的区别 word2vec是有监督的还是无监督的 word2vec的损失函数形式 分层softmax和负采样原理 Glove的思想以及和word2vec的区别 Fasttext和word2vec的区别 Fasttext哈希规则,怎么把语义相近的词哈希到一个桶里 RNN、LSTM、GRU公式。 RNN、LSTM、GRU参数大小 Attention机制的原理,有哪些变种 sigmoid用作激活函数时,分类为什么要用交叉熵损失,而不用均方损失?
故事尾音
2019-12-18
1.2K
0
生成模型和判别模型
机器学习
神经网络
深度学习
人工智能
生成模型(Generaive Model)一般以概率的方式描述了数据的产生方式,通过对模型采样就可以产生数据。 一个简单例子:给定平面上一系列点,我可以认为这些点是根据一个二维高斯分布产生的,这就是一个生成模型,它可以产生数据。我可以用最大似然方法,根据已有的样本估计出模型的参数,再对这个模型进行采样,就可以得到更多的样本,这些样本和之前的样本在空间分布上可能差不多。
故事尾音
2019-12-18
1.1K
0
最大似然估计和最大后验估计
机器学习
神经网络
深度学习
人工智能
已知一组数据集 $D={x_1,x_2,…,x_n}$ 是独立地从概率分布 $P(x)$ 上采样生成的,且 $P(x)$ 具有确定的形式(如高斯分布,二项分布等)但参数 $\theta$ 未知。
故事尾音
2019-12-18
1.2K
0
朴素贝叶斯
机器学习
神经网络
深度学习
人工智能
假设现在有一些评论数据,需要识别出这篇文本属于正向评论还是负面评论,也就是对文本进行分类。用数学语言描述就是: 假设已经有分好类的N篇文档:(d1,c1)、(d2,c2)、(d3,c3)……(dn,cn),di表示第i篇文档,ci表示第i个类别。目标是:寻找一个分类器,这个分类器能够:当丢给它一篇新文档d,它就输出d(最有可能)属于哪个类别c。
故事尾音
2019-12-18
668
0
腾讯广告部门一面-自然语言处理方向
NLP 服务
机器学习
神经网络
深度学习
人工智能
在 EMLo 中,他们使用的是一个双向的 LSTM 语言模型,由一个前向和一个后向语言 模型构成,目标函数就是取这两个方向语言模型的最大似然。 前向部分
故事尾音
2019-12-18
658
0
Network In Network
神经网络
机器学习
深度学习
人工智能
传统cnn网络中的卷积层其实就是用线性滤波器对图像进行内积运算,在每个局部输出后面跟着一个非线性的激活函数,最终得到的叫作特征图。而这种卷积滤波器是一种广义线性模型。所以用CNN进行特征提取时,其实就隐含地假设了特征是线性可分的,可实际问题往往是难以线性可分的。
故事尾音
2019-12-18
1.2K
0
Quora Insincere Questions Classification
keras
机器学习
神经网络
深度学习
人工智能
Quora平台,简单的来说就是美国版的知乎。最近Quora拿出25,000美元作为奖金,举办了一场Kaggle比赛:Quora Insincere Questions Classification。那么什么是虚假问题呢?就是那些并非真心发问而另有用意的问题。 该竞赛是个典型的文本二分类问题,即判断用户的提问是否“有害”,竞赛中最关键的要求有三点:
故事尾音
2019-12-18
646
0
DuReader,a Chinese Machine Reading Comprehension Dataset from Real-world Applications
游戏
搜索引擎
https
网络安全
机器学习
百度在2017年发布了大规模的中文MRC数据集:DuReader。相比以前的MRC数据集,DuReader有以下特点:
故事尾音
2019-12-18
834
0
长文本分类
神经网络
机器学习
人工智能
深度学习
在NLP领域中,文本分类舆情分析等任务相较于文本抽取,和摘要等任务更容易获得大量标注数据。因此在文本分类领域中深度学习相较于传统方法更容易获得比较好的效果。 文本分类领域比较重要的的深度学习模型主要有FastText,TextCNN,HAN,DPCNN。
故事尾音
2019-12-18
1.6K
0
QA综述
机器学习
神经网络
深度学习
人工智能
(2018年12月3日补充:第二篇不是论文,应该是斯坦福写的一个类似教程之类的东西,但是写的太像论文了(ˇˍˇ),我都搞混了 )
故事尾音
2019-12-18
964
0
LSTM参数计算与TimeDistributed层
机器学习
神经网络
深度学习
人工智能
本篇主要讲LSTM的参数计算和Keras TimeDistributed层的使用。LSTM的输入格式为:[Simples,Time Steps,Features]
故事尾音
2019-12-18
2.2K
0
理解Keras LSTM中的参数return_sequences和return_state
机器学习
神经网络
深度学习
人工智能
今天才注意到LSTM的output和hidden_state是同一个东西!下面分情况讨论参数的设置问题。
故事尾音
2019-12-18
1.9K
0
Attention,BiLSTM以及Transform
网络安全
https
机器学习
神经网络
深度学习
(function(){var player = new DPlayer({"container":document.getElementById("dplayer0"),"theme":"#FADFA3","loop":true,"video":{"url":"https://jalammar.github.io/images/attention_process.mp4"},"danmaku":{"api":"https://api.prprpr.me/dplayer/","token":"tokendemo"}});window.dplayers||(window.dplayers=[]);window.dplayers.push(player);})()
故事尾音
2019-12-18
2.2K
0
你画我猜
机器学习
深度学习
人工智能
文件存储
https
Quick Draw 数据集是一个包含5000万张图画的集合,分成了345个类别,这些图画都来自于Quick, Draw! 游戏的玩家。
故事尾音
2019-12-18
920
0
BiliBili蒙版弹幕
机器学习
神经网络
深度学习
人工智能
https
首先打开Mask_RCNN/samples notebook,运行。 出现两个错误:
故事尾音
2019-12-18
1.9K
0
目标检测综述
机器学习
神经网络
人工智能
编程算法
图像识别
这张图清楚说明了image classification, object detection, semantic segmentation, instance segmentation之间的关系. 摘自COCO dataset (https://arxiv.org/pdf/1405.0312.pdf)
故事尾音
2019-12-18
660
0
Seq2Seq模型的构建
机器学习
神经网络
深度学习
人工智能
Seq2Seq是指一般的序列到序列的转换任务,特点是输入序列和输出序列是不对齐的,比如机器翻译、自动文摘等等。
故事尾音
2019-12-16
1.3K
0
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
立即查看
Python精品学习库
代码在线跑,知识轻松学
立即查看
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
立即体验
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
立即查看
领券
问题归档
专栏文章
快讯文章归档
关键词归档
开发者手册归档
开发者手册 Section 归档