前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >让人深思:句法真的重要吗?邱锡鹏组提出一种基于Aspect的情感分析的强大基线

让人深思:句法真的重要吗?邱锡鹏组提出一种基于Aspect的情感分析的强大基线

作者头像
zenRRan
发布2021-10-08 15:22:13
6240
发布2021-10-08 15:22:13
举报

每天给你送来NLP技术干货!


论文:Does syntax matter? A strong baseline for Aspect-based Sentiment Analysis with RoBERTa [ACL21] 单位:复旦大学、卡内基梅隆大学 链接:https://aclanthology.org/2021.naacl-main.146.pdf

提取摘要

基于方面的情感分析(Aspect-Based Sentiment Analysis (ABSA))任务大家应该已经很熟了,本文的实验基于此。

之前的大量工作都表明了融入句法信息能够提高ABSA的性能。但是最近的预训练模型也同样展现了强大的性能提升。

因此,一个问题油然而生:

  • 是否在预训练模型中大量的句法信息?
  • 单单使用预训练模型是否足够?

本文第一次同时比较了分别基于预训练模型和句法解析器生成的依存句法树在ABSA上的性能,结果显示:FT-RoBERTa (finetune RoBERTa)要好于通过句法解析器生成的句法结构信息。通过实验分析进一步发现 FT-RoBERTa 生成的句法树更加以情感词为导向,非常有利于ABSA任务。最终在实验上达到了SOTA或者近似SOTA的性能。

具体介绍

如何通过预训练模型生成句法树?

本文使用的是Perturbed Masking (港大和华为ACL20提出)来利用预训练模型生成句法树。大概流程就是:

为了计算token j对于token i的影响度,首先mask掉token i,此时获取mask的词表示:

;然后mask掉token j,也会返回一个表示token i和j的词表示

,那么j对于i的影响度公式计算为:

重复上述操作,会得到一个每一对token的影响度的矩阵,那么就可以通过这个矩阵获取句法树。

模型

本文采用的模型很简单,就是在Aspect上做MLP分类来finetune RoBERTa即可。

实验

不同的树结构在英语数据集上的性能比较

不同树结构在非英语数据集上的性能比较

FT-RoBERTa生成的树更加对Aspect友好

与SOTA们作对比

思考

所以说,真的不需要句法结构信息了吗?句法还重要吗?本文仅仅在ABSA上做了实验,其他任务呢?我个人倾向人为定义的句法结构肯定有缺陷,未来大一统是趋势,你们认为呢?各抒己见~


本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-09-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 提取摘要
  • 具体介绍
    • 如何通过预训练模型生成句法树?
      • 模型
        • 实验
        • 思考
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档