首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

再探 ParserParser Combinator

如果大家对解析器还知之甚少,可以看我之前的文章《如何愉快地写个小parser》,以及 A Guide to Parsing: Algorithms and Terminology [3],它是对各种 parser...Parser Combinator 是和 Parser Generator 平行的概念。...前文说过,用 parser combinator 的感觉就像搭积木,比如要解析 Hello, world!,可以写三个小 parser,然后将其组合起来。如下图: ?...然而我自己写的两种不同的 policy parser,实测结果咣咣打脸。pest 做的 parser 对 policy 表达式的处理速度在 4us 左右,而 nom 则超过了 5us。...将新的 parser 应用在 Elixir 中 最终我使用 rustler [9] 把两个优化后的 parser 集成到 Elixir 中,然后用 benchee 测试了一下: ?

2.3K10
您找到你想要的搜索结果了吗?
是的
没有找到

【一分钟论文】IJCAI2019 | Self-attentive Biaffine Dependency Parsing

根据这个题目Self-attentive Biaffine Dependency Parsing你可能会想到经典的biaffine parser(不了解的点这个链接): https://arxiv.org...对,就是这样的,可以说是强强联合,将目前的parser SOTA模型(biaffine parser based bilstm)的提取特征层(bilstm)替换成self-attention(Transformer...1.第一次将self-attention使用在parser里 2.获得了和SOTA模型几乎一样的性能 3.同样相似的效果但不同类型的encoder(bilstm和self-attention)ensemble...4.验证了最新的预训练数据(ELMo和BERT)能够提高parser的性能。 ? 5.速度上,并行的self-attention肯定比bilstm要快。...很前沿: 李英师姐用了目前最火的self-attention(Transformer的encoder)替换了我们一直使用的SOTA模型biaffine parser based bilstm 的 bilstm

1.3K20

BERT+Biaffine结构中文NLP地址要素解析

模型 现在的实体识别方案很多,包括BERT+CRF的序列标注、基于Span的方法、基于MRC的方法,我这里使用的是基于BERT的Biaffine结构,直接预测文本构成的所有span的类别。...相比单纯基于span预测和基于MRC的预测,Biaffine的结构可以同时考虑所有span之间的关系,从而提高预测的准确率。...Biaffine意思双仿射,如果W*X是单仿射的话,X*W*Y就是双仿射了。本质上就是输入一个长度为L的序列,预测一个L*L*C的tensor,预测每个span的类别信息。...这里默认都是一句话【数据决定】 同时改进了原有greedy的decoding方法,使用基于DAG的动态规划算法找到全局最优解 但是这种方法也有一些局限: 对边界判断不是特别准 有大量的负样本 原来我也实现过Biaffine-BERT-NER

2.6K30

【一分钟论文】 NAACL2019-使用感知句法词表示的句法增强神经机器翻译

这个是由两部分组成,可以看做是parser和seq2seq NMT联合模型(joint model)。...其中左边的是用随机选择50k Chinese Treebank 7.0在SOTA模型biaffine parser上训练好的模型,其中包括encoder和decoder。...输入一句话,通过训练好的parser模型,得到encoder的隐层: ? 这里的O1-O6就是要输入到右边的NMT模型当中的隐层。 右边就是经典的seq2seq NMT模型。...使用parser隐层的原因? 是这个样子的,以前融入句法信息用的具体的依存树,类似下面这个: ? 而这个依存树是由parser解析出来的。这样会有两个问题: 1....使用parser的隐层,恰恰解决了上述两个问题。 而用对于具体的依存树,之前用的融入方法就是Tree RNN或Tree Linearization。

59730
领券