前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >【一分钟论文】IJCAI2019 | Self-attentive Biaffine Dependency Parsing

【一分钟论文】IJCAI2019 | Self-attentive Biaffine Dependency Parsing

作者头像
zenRRan
发布2019-08-12 15:56:30
1.3K0
发布2019-08-12 15:56:30
举报

论文解读

这次分享的论文是:

http://hlt.suda.edu.cn/~zhli/papers/liying_ijcai19_dp.pdf

是由SUDA-HLT实验室LA组的博士二年级学生李英发表在2019IJCAI上的一篇文章。

根据这个题目Self-attentive Biaffine Dependency Parsing你可能会想到经典的biaffine parser(不了解的点这个链接):

https://arxiv.org/pdf/1611.01734.pdf

和Transformer的Encoder:

https://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf

对,就是这样的,可以说是强强联合,将目前的parser SOTA模型(biaffine parser based bilstm)的提取特征层(bilstm)替换成self-attention(Transformer的Encoder层)来提取特征。效果和用bilstm的效果几乎是一样的:

LAS基本一样,但是这篇文章新颖的点在哪里呢?

1.第一次将self-attention使用在parser里

2.获得了和SOTA模型几乎一样的性能

3.同样相似的效果但不同类型的encoder(bilstm和self-attention)ensemble起来效果会更好

4.验证了最新的预训练数据(ELMo和BERT)能够提高parser的性能。

5.速度上,并行的self-attention肯定比bilstm要快。

总结

做个总结吧,ijcai是一类顶会,宏观角度看这篇文章

1. 很前沿

  • 李英师姐用了目前最火的self-attention(Transformer的encoder)替换了我们一直使用的SOTA模型biaffine parser based bilstm 的 bilstm
  • 使用了最新的预训练模型ELMo和BERT于自己提出的模型上,有效果。

2. 很认真(苦力)

  • 我问了师姐,模型写的很快,但是调出理想的参数大概就用了2-3个月。

发顶会应该就这两点:前沿+认真!

加油,希望我和你也能来一篇。

推荐阅读:

【一分钟论文】 NAACL2019-使用感知句法词表示的句法增强神经机器翻译

【一分钟论文】Semi-supervised Sequence Learning半监督序列学习

详解Transition-based Dependency parser基于转移的依存句法解析器

经验 | 初入NLP领域的一些小建议

学术 | 如何写一篇合格的NLP论文

干货 | 那些高产的学者都是怎样工作的?

一个简单有效的联合模型

近年来NLP在法律领域的相关研究工作

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2019-08-09,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
NLP 服务
NLP 服务(Natural Language Process,NLP)深度整合了腾讯内部的 NLP 技术,提供多项智能文本处理和文本生成能力,包括词法分析、相似词召回、词相似度、句子相似度、文本润色、句子纠错、文本补全、句子生成等。满足各行业的文本智能需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档