首页
学习
活动
专区
工具
TVP
发布

NLP算法工程师之路

专栏成员
72
文章
87010
阅读量
17
订阅数
《Retrieve-and-Read,Multi-task Learning of Information Retrieval and Reading Comprehension》的Reference
Text Span的评估指标: For text-span questions whose answer is string(s), we need to compare the predicted string(s) with the ground truth answer string(s) (i.e., the correct answer). RCstyle QA task generally uses evaluation metrics Exact Match (EM) and F1 score (F1) proposed by Rajpurkar et al. [94] for text-span questions [104, 116]. EM assigns credit 1.0 to questions whose predicted answer is exactly the same as the ground truth answer and 0.0 otherwise, so the computation of EM is the same as the metric Accuracy but for different categories of RC-style QA. F1 measures the average word overlap between the predicted answer and the ground truth answer. These two answers are both considered as bag of words with lower cases and ignored the punctuation and articles “a”, “an” and “the”. For example, the answer “The Question Answering System” is treated as a set of words {question, answering, system}. Therefore, F1 of each text-span question can be computed at word-level by Equation 2.2
故事尾音
2019-12-18
8160
THU深圳研究院:大数据机器学习
B站视频:https://www.bilibili.com/video/av67224054
故事尾音
2019-12-18
6030
过拟合现象及解决方案
每迭代几次就对模型进行检查它在验证集上的工作情况,并保存每个比以前所有迭代时都要好的模型。此外,还设置最大迭代次数这个限制,超过此值时停止学习。
故事尾音
2019-12-18
1.6K0
NLP面试比较重要的知识点
输入补全可以用哪个数据结构来做?(字典树) 假如有10亿条搜索请求,怎么找出最热的前10条? 讲一下LDA,讲一下隐狄利克雷分布,里面有个辛普森采样了解吗 pointwise、pairwise 、listwise的区别 word2vec是有监督的还是无监督的 word2vec的损失函数形式 分层softmax和负采样原理 Glove的思想以及和word2vec的区别 Fasttext和word2vec的区别 Fasttext哈希规则,怎么把语义相近的词哈希到一个桶里 RNN、LSTM、GRU公式。 RNN、LSTM、GRU参数大小 Attention机制的原理,有哪些变种 sigmoid用作激活函数时,分类为什么要用交叉熵损失,而不用均方损失?
故事尾音
2019-12-18
1.2K0
生成模型和判别模型
生成模型(Generaive Model)一般以概率的方式描述了数据的产生方式,通过对模型采样就可以产生数据。 一个简单例子:给定平面上一系列点,我可以认为这些点是根据一个二维高斯分布产生的,这就是一个生成模型,它可以产生数据。我可以用最大似然方法,根据已有的样本估计出模型的参数,再对这个模型进行采样,就可以得到更多的样本,这些样本和之前的样本在空间分布上可能差不多。
故事尾音
2019-12-18
1.1K0
最大似然估计和最大后验估计
已知一组数据集 $D={x_1,x_2,…,x_n}$ 是独立地从概率分布 $P(x)$ 上采样生成的,且 $P(x)$ 具有确定的形式(如高斯分布,二项分布等)但参数 $\theta$ 未知。
故事尾音
2019-12-18
1.2K0
朴素贝叶斯
假设现在有一些评论数据,需要识别出这篇文本属于正向评论还是负面评论,也就是对文本进行分类。用数学语言描述就是: 假设已经有分好类的N篇文档:(d1,c1)、(d2,c2)、(d3,c3)……(dn,cn),di表示第i篇文档,ci表示第i个类别。目标是:寻找一个分类器,这个分类器能够:当丢给它一篇新文档d,它就输出d(最有可能)属于哪个类别c。
故事尾音
2019-12-18
6680
腾讯广告部门一面-自然语言处理方向
在 EMLo 中,他们使用的是一个双向的 LSTM 语言模型,由一个前向和一个后向语言 模型构成,目标函数就是取这两个方向语言模型的最大似然。 前向部分
故事尾音
2019-12-18
6580
Network In Network
传统cnn网络中的卷积层其实就是用线性滤波器对图像进行内积运算,在每个局部输出后面跟着一个非线性的激活函数,最终得到的叫作特征图。而这种卷积滤波器是一种广义线性模型。所以用CNN进行特征提取时,其实就隐含地假设了特征是线性可分的,可实际问题往往是难以线性可分的。
故事尾音
2019-12-18
1.2K0
Quora Insincere Questions Classification
Quora平台,简单的来说就是美国版的知乎。最近Quora拿出25,000美元作为奖金,举办了一场Kaggle比赛:Quora Insincere Questions Classification。那么什么是虚假问题呢?就是那些并非真心发问而另有用意的问题。 该竞赛是个典型的文本二分类问题,即判断用户的提问是否“有害”,竞赛中最关键的要求有三点:
故事尾音
2019-12-18
6460
DuReader,a Chinese Machine Reading Comprehension Dataset from Real-world Applications
百度在2017年发布了大规模的中文MRC数据集:DuReader。相比以前的MRC数据集,DuReader有以下特点:
故事尾音
2019-12-18
8340
长文本分类
在NLP领域中,文本分类舆情分析等任务相较于文本抽取,和摘要等任务更容易获得大量标注数据。因此在文本分类领域中深度学习相较于传统方法更容易获得比较好的效果。 文本分类领域比较重要的的深度学习模型主要有FastText,TextCNN,HAN,DPCNN。
故事尾音
2019-12-18
1.6K0
QA综述
(2018年12月3日补充:第二篇不是论文,应该是斯坦福写的一个类似教程之类的东西,但是写的太像论文了(ˇˍˇ),我都搞混了 )
故事尾音
2019-12-18
9640
LSTM参数计算与TimeDistributed层
本篇主要讲LSTM的参数计算和Keras TimeDistributed层的使用。LSTM的输入格式为:[Simples,Time Steps,Features]
故事尾音
2019-12-18
2.2K0
理解Keras LSTM中的参数return_sequences和return_state
今天才注意到LSTM的output和hidden_state是同一个东西!下面分情况讨论参数的设置问题。
故事尾音
2019-12-18
1.9K0
Attention,BiLSTM以及Transform
(function(){var player = new DPlayer({"container":document.getElementById("dplayer0"),"theme":"#FADFA3","loop":true,"video":{"url":"https://jalammar.github.io/images/attention_process.mp4"},"danmaku":{"api":"https://api.prprpr.me/dplayer/","token":"tokendemo"}});window.dplayers||(window.dplayers=[]);window.dplayers.push(player);})()
故事尾音
2019-12-18
2.2K0
你画我猜
Quick Draw 数据集是一个包含5000万张图画的集合,分成了345个类别,这些图画都来自于Quick, Draw! 游戏的玩家。
故事尾音
2019-12-18
9200
BiliBili蒙版弹幕
首先打开Mask_RCNN/samples notebook,运行。 出现两个错误:
故事尾音
2019-12-18
1.9K0
目标检测综述
这张图清楚说明了image classification, object detection, semantic segmentation, instance segmentation之间的关系. 摘自COCO dataset (https://arxiv.org/pdf/1405.0312.pdf)
故事尾音
2019-12-18
6600
Seq2Seq模型的构建
Seq2Seq是指一般的序列到序列的转换任务,特点是输入序列和输出序列是不对齐的,比如机器翻译、自动文摘等等。
故事尾音
2019-12-16
1.3K0
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档