前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ACL'22 | 西湖大学提出:面向Aspect情感分析的离散意见树归纳方法

ACL'22 | 西湖大学提出:面向Aspect情感分析的离散意见树归纳方法

作者头像
zenRRan
发布2023-01-10 18:10:51
4680
发布2023-01-10 18:10:51
举报
文章被收录于专栏:深度学习自然语言处理

作者: 周婷 方向: 情感分析 学校: 中山大学

论文:Discrete Opinion Tree Induction for Aspect-based Sentiment Analysis 单位:西湖大学、苏州大学 地址:https://aclanthology.org/2022.acl-long.145.pdf

「文章贡献」

在本文中,我们探索了一种简单的方法,为每个方面自动生成离散意见树结构。用到了RL。

首先为每个方面生成离散意见树,设方面词的位置为[b,e],则首先将方面跨度[b, e]作为根节点,然后分别从跨度[1,b−1]和[e+1, n]构建它的左子节点和右子节点。为了构建左子树或右子树,我们首先选择span中「得分最大的元素」作为子树的根节点,然后递归地对相应的span分区使用build_tree调用。(除了方面词外其他node都是单个词)。

关于得分分数的计算,选择将" [CLS], w_1,w_2,...,w_n,[SEP],w_b,...,w_e "作为BERT的输入得到特殊于方面词的句子表达H,然后按照如下计算得分:

其中h是H中方面词部分的平均池化,构建树的这部分包含的参数有三个u_p,W_p,W_a 以及BERT参数部分。

构建树的这一部分称为Q_\phi(t|x,a) ,输入为x和a(用于打分),输出为一棵树,参数 ϕ 包括上述参数。这一部分参数使用RL进行更新而不是最终损失函数的反向传播。

生成树以后开始正式执行预测任务,模型非常简单。

将上面得到的树生成邻接矩阵,经过GCN(可能多层),取最后一层GCN的输出结果的方面词部分以及[CLS]这个token的表达之和作为query,与GCN的输入的初始向量特征(也就是原句子经过句子编码器得到的)做注意力机制,用输入去表达最终的方面级分类特征。

最后输出分类结果

损失函数:

注意这个论文分为两个模块,第一个是生成树,利用Q_\phi(t|x,a) 得到t;第二部分是预测, P_\theta(y|x,a,t) ,这里的 θ 包括GCN模块的参数和输出(等式5)的部分,PS注意力模块没有引进参数哦。

第二部分使用上述损失函数进行优化,由于树的采样过程是一个离散的决策过程,因此它是不可微的,第一部分使用的是RL进行优化。

强化学习实现训练部分还没看。

实验效果和分析

MAMS 开发集效果

在MAMS数据上和多语言评论数据的结果

SemEval数据集上的效果

和span-based RL作对比

图3a和图3b分别显示了方面术语“scallops”的induced tree和dependency parse:

图4a和图4b显示了两个情绪极性不同的方面术语的induced tree:

aspect 和 opinion word的距离分析:

基于MAMS的测试集分类精度与训练集中各方面频率的关系:


本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-11-15,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 深度学习自然语言处理 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 实验效果和分析
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档