前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >[KDD 2022 | 论文简读] 用于复杂周期性时间序列预测的四元数Transformer

[KDD 2022 | 论文简读] 用于复杂周期性时间序列预测的四元数Transformer

作者头像
智能生信
发布2022-12-29 17:18:39
6120
发布2022-12-29 17:18:39
举报
文章被收录于专栏:智能生信智能生信

简读分享 | 龙文韬 编辑 | 王宇哲

论文题目

Learning to Rotate: Quaternion Transformer for Complicated Periodical Time Series Forecasting

论文摘要

在许多实际应用中,时间序列预测是一个关键且具有挑战性的问题。最近,基于Transformer的模型由于在长期依赖学习方面的进步而在时间序列预测中占了上风。此外,一些模型引入了序列分解,以进一步揭示可靠而简单的时间依赖关系。不幸的是,很少有模型可以处理复杂的周期性模式,例如真实数据集中的多个周期、可变周期和相位转移。同时,众所周知的点积型注意力机制(dot-product attentions)的二次方复杂性阻碍了长序列建模。为了应对这些挑战,作者设计了一个创新的框架Quaternion Transformer(Quatformer),以及三个主要组件:1)基于四元数的循环学习(learning-to-rotate attention, LRA),引入可学习的周期和相位信息来描绘复杂的周期模式。2)趋势归一化,考虑到趋势变化缓慢的特点,对模型隐藏层中的序列表示进行归一化。3)使用全局存储器解耦LRA,在不损失预测精度的情况下实现线性复杂性。作者在多个现实世界的时间序列数据集上评估作者的框架,并观察到在最佳最先进基线上MSE平均提高了8.1%和18.5%。

论文链接

https://dl.acm.org/doi/10.1145/3534678.3539234

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2022-11-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 智能生信 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档