首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >专栏 >[IJCAI | 论文解读] AttExplainer:通过强化学习的注意力机制来解释 Transformer

[IJCAI | 论文解读] AttExplainer:通过强化学习的注意力机制来解释 Transformer

作者头像
智能生信
发布2022-12-29 17:10:44
发布2022-12-29 17:10:44
4000
举报
文章被收录于专栏:智能生信智能生信

简读分享 | 乔剑博 编辑 | 王宇哲

论文题目

AttExplainer: Explain Transformer via Attention by Reinforcement Learning

论文摘要

Transformer 及其变体基于注意力机制构建,最近在许多 NLP 任务中取得了显著的性能。大多数现有的关于 Transformer 解释的工作倾向于以定性的方式揭示和利用具有人类主观直觉的注意力矩阵。然而,巨大的维度直接挑战了这些方法来定量分析注意力矩阵。因此,在本文中,作者提出了一种新的基于强化学习 (RL) 的框架,用于通过注意力矩阵进行 Transformer 解释,即 AttExplainer。RL 代理通过观察注意力矩阵的变化来学习执行逐步屏蔽操作。作者已经将作者的方法调整到两种场景,基于扰动的模型解释和文本对抗攻击。与最先进的基线相比,在三个广泛使用的文本分类基准上进行的实验验证了所提出方法的有效性。其他研究表明,作者的方法具有高度可转移性,并且与人类直觉一致。

论文链接

https://www.ijcai.org/proceedings/2022/0102.pdf

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2022-10-20,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 智能生信 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档