前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[ICML]好文简读:遗忘不相关信息以减少Attention计算量

[ICML]好文简读:遗忘不相关信息以减少Attention计算量

作者头像
智能生信
发布2021-11-02 17:12:13
4500
发布2021-11-02 17:12:13
举报
文章被收录于专栏:智能生信

论文题目:

Not all memories are created equal: learning to forget by expiring

论文摘要:

这是一篇研究减少Attention计算量的方法。作者提出了Expire-Span方法,该方法可以通过记住重要的信息,遗忘不相关的信息减少Attention计算量。具体实现方法就是对每个memory学习一个Expire-Span系数,该系数可以控制这个memory的存在时间,超出时间后该memory就会被丢弃,不再参与到Attention的计算之中。在实验部分,Expire-Span被应用到长序列建模和与memory相关的强化学习任务中,获得了SOTA的结果。

论文链接:

https://arxiv.org/pdf/2105.06548.pdf

Github链接:

https://github.com/facebookresearch/transformer-sequential


欢迎关注公众号,获取更多论文解读

转载或合作请联系邮箱 intbioinfo@163.com

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2021-10-23,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 智能生信 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档