前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ICLR 2023 | 具有防御机制的鲁棒时序预测模型

ICLR 2023 | 具有防御机制的鲁棒时序预测模型

作者头像
VachelHu
发布2023-09-02 17:53:11
3680
发布2023-09-02 17:53:11
举报
文章被收录于专栏:时序人时序人

在这个数字化时代,时间序列数据被广泛应用于各个领域,例如金融、医疗、电子商务等。对于这些领域的决策来说,准确的时间序列预测非常重要。因此,保护时间序列预测模型免受攻击是很多厂家所关注的问题。过去,许多研究人员关注于防御策略,例如使用统计方法、检测异常值等方法。但是,这些方法在防御效果上可能存在局限性。

最近,来自 AWS 和华盛顿大学的研究者们关注了在时间序列预测中,特别是使用深度学习模型下的攻击和防御问题。研究者们研究如何通过攻击和防御策略来提高模型的预测精度。他们使用了一个基于深度学习的非线性预测模型(Informer)和一个包含真实观测值的模拟时间序列作为攻击目标,并研究了攻击对模型的影响以及如何通过不同的防御策略来减轻攻击的影响。具体来说,论文研究了以下问题:

  1. 攻击的影响:在给定序模型的真实观测值上进行攻击,会对模型的预测精度产生多大的影响?
  2. 防御策略:什么样的防御策略可以减轻攻击对模型的影响,并提高模型的预测精度?
  3. 攻击和防御的平衡:在防御策略和攻击之间的平衡是什么?什么是最有效的防御策略?

最近该工作被深度学习领域顶级会议 ICLR 2023 收录。那么,具体方法是什么样?本文将为大家简要介绍。

论文地址:https://openreview.net/forum?id=ctmLBs8lITa

论文源码:https://github.com/awslabs/gluonts

模型攻击

模型攻击是指对模型进行修改,以破坏模型的预测能力,从而使模型无法准确预测未来的数据。常见的模型攻击包括:

  1. 模型的输入数据:攻击者可能会对模型的输入数据进行修改,例如通过添加噪声、改变数据类型或删除数据点等,从而破坏模型的预测能力。
  2. 模型的结构:攻击者可能会对模型的结构进行修改,例如通过添加模块、删除模块或修改模块的参数,从而破坏模型的预测能力。
  3. 模型的超参数:攻击者可能会对模型的超参数进行修改,例如改变学习率、激活函数或使用不同的优化算法等,从而破坏模型的预测能力。
  4. 模型的训练数据:攻击者可能会对模型的训练数据进行修改,例如通过添加噪声、改变数据类型或删除数据点等,从而破坏模型的预测能力。

这些攻击可能会对模型的预测能力产生很大的影响,因此,在模型中,防御措施非常重要,例如使用数据增强、添加正则项、使用不同的优化算法等。

如上图所示,攻击者通过间接地误导时间序列 TS1 生成预测攻击 TS5。可以看到攻击使得预测发生了不利的更改。具体来说,如果攻击者能够生成足够多的有效攻击样本,那么攻击者就能够通过生成的样本来对模型进行欺骗,从而破坏模型的预测能力,导致模型预测的精度下降。

然而,攻击的影响通常是暂时的,并且取决于攻击者的能力和攻击类型。如果攻击者无法生成足够多的有效攻击样本,或者攻击类型的样本不够具有代表性,那么对模型的预测精度的影响通常会较小。

另外,在实际应用中,对序模型的攻击通常是通过对模型的参数的修改来实现的。攻击者可能会通过修改模型参数、调整超参数等手段来影响模型的预测能力。因此,在实际应用中,对模型的攻击测试和防御测试非常重要,以确保模型在受到攻击时能够保持良好的预测能力。

模型防御

防御策略是指在模型受到攻击时,采取的一系列措施,以保护模型的预测能力,常见的防御策略包括:

  1. 模型的异常检测:通过检测系统,以检测模型是否受到攻击。
  2. 模型的数据增强:通过对模型的输入数据进行增强,增加模型的鲁棒性。
  3. 模型的正则化:通过对模型的超参数进行正则化,降低模型的方差,从而提高模型的预测能力。
  4. 模型的迁移学习:通过将模型的参数和知识迁移到其他模型上,来提高模型的预测能力。
  5. 模型的一阶矩估计:通过对模型的输出数据进行一阶矩估计,来提高模型的预测能力。
  6. 模型的特征选择:通过对模型的特征进行选择,来提高模型的预测能力。

研究者们针对深度学习模型,提出的模型防御策略是使用随机化(randomization)和基于对抗梯度训练的防御策略(gradient-based defense strategy)来应对这种对抗攻击。如下图伪代码所示:

防御策略基于两个主要思想:随机化对抗梯度优化

首先,为了减轻攻击对模型的影响,作者使用随机化技术来重新分布攻击的概率分布。具体来说,作者对每个样本所属的类别进行随机化,然后使用新的概率分布来表示攻击后每个样本的概率。这样,模型的防御策略变得更加鲁棒,因为攻击的影响被分散到了多个样本上,从而降低了每个样本受到攻击的概率。

其次,为了提高模型的防御能力,作者使用基于对抗梯度的防御策略来优化防御参数。具体来说,作者对每个样本,使用基于梯度的损失函数:

来计算样本到目标和实际目标之间的差距,然后使用梯度下降算法更新模型参数,以最小化损失函数。通过这种方式,模型能够通过参数的优化来提高防御能力,从而更好地应对复杂的攻击。

实验研究

该论文的实验分为两部分:

  1. 梯度爆炸情况下,使用基于梯度的防御策略进行防御,比较不同梯度爆炸对模型性能的影响。
  2. 使用随机化方法,对梯度分布进行随机化处理,评估随机化对模型性能的影响。

具体实验设定如下:

  1. 数据集:使用 2021 年 Iterative Learning Dataset (ILD) 作为数据集,该数据集包含来自 2021 年公开数据集的 5000 个样本,每个样本具有 1000 个特征。
  2. 模型:使用 DeepInformer 模型,其中包含 8 个层,每层包含 256 个注意力单元和 256 个非线性单元。
  3. 攻击方法:使用 Adam 优化器进行梯度下降。攻击者通过发送一组噪声向量(noise vector)来对模型进行攻击,这些向量试图欺骗模型。

可以看到,基于随机化方法和梯度优化方法都可以使得时序预测模型更加鲁棒,其中基于梯度的防御策略能够更有效提高模型的鲁棒性和安全性,特别是当梯度值较小时,防御策略的效果尤为明显。

总结

这篇论文主要研究了在深度学习模型中,攻击者如何利用梯度信息来攻击模型,并提出了一个基于梯度的防御策略来提高模型的鲁棒性和安全性。具体来说,该论文详细介绍了攻击者和防御者的行为,以及防御者如何通过梯度下降来更新参数以最小化损失。然后,论文展示了实验结果,并讨论了防御策略的有效性和鲁棒性。最终,论文总结出,基于梯度的防御策略是一种有效的防御方法,可以帮助深度学习模型在面对梯度爆炸等攻击时保持良好的性能。

点击下方链接关注时序人

欢迎投稿

转载请联系作者

往期推荐阅读

KDD 2023 | 基于 Transformer 的实时用户行为建模

KDD 2023 | 基于强化学习的符号量化因子集合挖掘

AAAI 2023 | 均匀序列更好:时间间隔感知的序列推荐数据增强方法

AAAI 2023 | Transformer 对时序预测真的有效吗?

ICLR 2023 | 预测、填补、分类等五大任务领先的时序基础模型 TimesNet

IC‍ML 2022 | 用于时间序列预测的指数平滑 Transformer

AAAI 2022 | 一种支持任意场景下时序表征学习的模型 TS2Vec

KDD 2022 | 推荐系统中的通用序列表征学习

KDD 2022 | 脑电AI助力癫痫疾病诊断

ICLR 2022 | Pryaformer 工业级长时序预测

NeurIPS 2021 | 微观特征混合进行宏观时间序列预测

WSDM 2021 | 时间序列转化为动态图进行表示

AAAI 2021 | 高效长序列预测模型: Informer

ICLR 2023 | 时间序列相关论文一览(附原文源码)

WWW 2023 | 时间序列相关论文一览(附原文源码)

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2023-08-31,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 时序人 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • KDD 2023 | 基于强化学习的符号量化因子集合挖掘
  • AAAI 2023 | 均匀序列更好:时间间隔感知的序列推荐数据增强方法
  • AAAI 2023 | Transformer 对时序预测真的有效吗?
  • ICLR 2023 | 预测、填补、分类等五大任务领先的时序基础模型 TimesNet
  • IC‍ML 2022 | 用于时间序列预测的指数平滑 Transformer
  • AAAI 2021 | 高效长序列预测模型: Informer
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档