首页
学习
活动
专区
工具
TVP
发布

NLP算法工程师之路

专栏成员
72
文章
86959
阅读量
17
订阅数
《Retrieve-and-Read,Multi-task Learning of Information Retrieval and Reading Comprehension》的Reference
Text Span的评估指标: For text-span questions whose answer is string(s), we need to compare the predicted string(s) with the ground truth answer string(s) (i.e., the correct answer). RCstyle QA task generally uses evaluation metrics Exact Match (EM) and F1 score (F1) proposed by Rajpurkar et al. [94] for text-span questions [104, 116]. EM assigns credit 1.0 to questions whose predicted answer is exactly the same as the ground truth answer and 0.0 otherwise, so the computation of EM is the same as the metric Accuracy but for different categories of RC-style QA. F1 measures the average word overlap between the predicted answer and the ground truth answer. These two answers are both considered as bag of words with lower cases and ignored the punctuation and articles “a”, “an” and “the”. For example, the answer “The Question Answering System” is treated as a set of words {question, answering, system}. Therefore, F1 of each text-span question can be computed at word-level by Equation 2.2
故事尾音
2019-12-18
8150
CS231N学习笔记
CS231n的全称是CS231n: Convolutional Neural Networks for Visual Recognition,即面向视觉识别的卷积神经网络。该课程是斯坦福大学计算机视觉实验室推出的课程。 课程官网:http://cs231n.stanford.edu/ 官方笔记:http://cs231n.github.io/ B站视频:https://www.bilibili.com/video/av58778425 课程作业:https://github.com/Burton2000/CS231n-2017
故事尾音
2019-12-18
9400
THU深圳研究院:大数据机器学习
B站视频:https://www.bilibili.com/video/av67224054
故事尾音
2019-12-18
6030
过拟合现象及解决方案
每迭代几次就对模型进行检查它在验证集上的工作情况,并保存每个比以前所有迭代时都要好的模型。此外,还设置最大迭代次数这个限制,超过此值时停止学习。
故事尾音
2019-12-18
1.6K0
NLP面试比较重要的知识点
输入补全可以用哪个数据结构来做?(字典树) 假如有10亿条搜索请求,怎么找出最热的前10条? 讲一下LDA,讲一下隐狄利克雷分布,里面有个辛普森采样了解吗 pointwise、pairwise 、listwise的区别 word2vec是有监督的还是无监督的 word2vec的损失函数形式 分层softmax和负采样原理 Glove的思想以及和word2vec的区别 Fasttext和word2vec的区别 Fasttext哈希规则,怎么把语义相近的词哈希到一个桶里 RNN、LSTM、GRU公式。 RNN、LSTM、GRU参数大小 Attention机制的原理,有哪些变种 sigmoid用作激活函数时,分类为什么要用交叉熵损失,而不用均方损失?
故事尾音
2019-12-18
1.2K0
生成模型和判别模型
生成模型(Generaive Model)一般以概率的方式描述了数据的产生方式,通过对模型采样就可以产生数据。 一个简单例子:给定平面上一系列点,我可以认为这些点是根据一个二维高斯分布产生的,这就是一个生成模型,它可以产生数据。我可以用最大似然方法,根据已有的样本估计出模型的参数,再对这个模型进行采样,就可以得到更多的样本,这些样本和之前的样本在空间分布上可能差不多。
故事尾音
2019-12-18
1.1K0
最大似然估计和最大后验估计
已知一组数据集 $D={x_1,x_2,…,x_n}$ 是独立地从概率分布 $P(x)$ 上采样生成的,且 $P(x)$ 具有确定的形式(如高斯分布,二项分布等)但参数 $\theta$ 未知。
故事尾音
2019-12-18
1.2K0
朴素贝叶斯
假设现在有一些评论数据,需要识别出这篇文本属于正向评论还是负面评论,也就是对文本进行分类。用数学语言描述就是: 假设已经有分好类的N篇文档:(d1,c1)、(d2,c2)、(d3,c3)……(dn,cn),di表示第i篇文档,ci表示第i个类别。目标是:寻找一个分类器,这个分类器能够:当丢给它一篇新文档d,它就输出d(最有可能)属于哪个类别c。
故事尾音
2019-12-18
6670
从香农说起
我在大学上量子物理的时候,觉得这门课公式繁多,一度不愿意去学习。直到后来我看到近代量子物理的发展简史,才感受到其中的美妙。那是一种人文与科学的交织,我深深陶醉其中,也对量子物理兴趣大发。我觉得深度学习也是这样,我们应该了解公式背后的历史。跟随着那些有趣灵魂的脚步,才会明白是这一切将去往何方。
故事尾音
2019-12-18
8040
腾讯广告部门一面-自然语言处理方向
在 EMLo 中,他们使用的是一个双向的 LSTM 语言模型,由一个前向和一个后向语言 模型构成,目标函数就是取这两个方向语言模型的最大似然。 前向部分
故事尾音
2019-12-18
6580
Network In Network
传统cnn网络中的卷积层其实就是用线性滤波器对图像进行内积运算,在每个局部输出后面跟着一个非线性的激活函数,最终得到的叫作特征图。而这种卷积滤波器是一种广义线性模型。所以用CNN进行特征提取时,其实就隐含地假设了特征是线性可分的,可实际问题往往是难以线性可分的。
故事尾音
2019-12-18
1.2K0
Quora Insincere Questions Classification
Quora平台,简单的来说就是美国版的知乎。最近Quora拿出25,000美元作为奖金,举办了一场Kaggle比赛:Quora Insincere Questions Classification。那么什么是虚假问题呢?就是那些并非真心发问而另有用意的问题。 该竞赛是个典型的文本二分类问题,即判断用户的提问是否“有害”,竞赛中最关键的要求有三点:
故事尾音
2019-12-18
6440
长文本分类
在NLP领域中,文本分类舆情分析等任务相较于文本抽取,和摘要等任务更容易获得大量标注数据。因此在文本分类领域中深度学习相较于传统方法更容易获得比较好的效果。 文本分类领域比较重要的的深度学习模型主要有FastText,TextCNN,HAN,DPCNN。
故事尾音
2019-12-18
1.6K0
QA综述
(2018年12月3日补充:第二篇不是论文,应该是斯坦福写的一个类似教程之类的东西,但是写的太像论文了(ˇˍˇ),我都搞混了 )
故事尾音
2019-12-18
9630
词向量的新进展
最近谷歌研究人员通过新的BERT模型在11项NLP任务中夺得STOA结果,这在自然语言处理学界以及工业界都引起了不小的热议。作者通过在33亿文本的语料上训练语言模型,再分别在不同的下游任务上微调,这样的模型在不同的任务均得到了目前为止最好的结果,并且有一些结果相比此前的最佳成绩得到了幅度不小的提升。借此契机,我们回顾一下词表示方向的这两年的一些新进展,希望能发现一些规律和新的idea。基本的介绍路线如下:
故事尾音
2019-12-18
1K0
LSTM参数计算与TimeDistributed层
本篇主要讲LSTM的参数计算和Keras TimeDistributed层的使用。LSTM的输入格式为:[Simples,Time Steps,Features]
故事尾音
2019-12-18
2.2K0
理解Keras LSTM中的参数return_sequences和return_state
今天才注意到LSTM的output和hidden_state是同一个东西!下面分情况讨论参数的设置问题。
故事尾音
2019-12-18
1.9K0
Attention,BiLSTM以及Transform
(function(){var player = new DPlayer({"container":document.getElementById("dplayer0"),"theme":"#FADFA3","loop":true,"video":{"url":"https://jalammar.github.io/images/attention_process.mp4"},"danmaku":{"api":"https://api.prprpr.me/dplayer/","token":"tokendemo"}});window.dplayers||(window.dplayers=[]);window.dplayers.push(player);})()
故事尾音
2019-12-18
2.2K0
BiliBili蒙版弹幕
首先打开Mask_RCNN/samples notebook,运行。 出现两个错误:
故事尾音
2019-12-18
1.9K0
目标检测综述
这张图清楚说明了image classification, object detection, semantic segmentation, instance segmentation之间的关系. 摘自COCO dataset (https://arxiv.org/pdf/1405.0312.pdf)
故事尾音
2019-12-18
6600
点击加载更多
社区活动
【纪录片】中国数据库前世今生
穿越半个世纪,探寻中国数据库50年的发展历程
Python精品学习库
代码在线跑,知识轻松学
博客搬家 | 分享价值百万资源包
自行/邀约他人一键搬运博客,速成社区影响力并领取好礼
技术创作特训营·精选知识专栏
往期视频·千货材料·成员作品 最新动态
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档