前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Goodfellow回谷歌后首篇GAN论文:可迁移性对抗样本空间

Goodfellow回谷歌后首篇GAN论文:可迁移性对抗样本空间

作者头像
新智元
发布2018-03-28 15:12:20
1.9K0
发布2018-03-28 15:12:20
举报
文章被收录于专栏:新智元

【新智元导读】昨天 Ian Goodfellow 和他在斯坦福大学以及宾夕法尼亚州立大学的合作者在 arXiv 上传了 Ian Goodfellow 回到谷歌后的首篇 GAN 论文《可迁移性对抗样本空间》,研究了对抗性攻击的原因,并进行了领域内首次量化研究。论文找到了迁移性的充分条件,也找到了对抗样本迁移性不满足的实例。朝向防御对抗性攻击迈出了第一步。

现在,卷积神经网络(CNN)识别图像的能力已经到了“出神入化”的地步,你可能知道在 ImageNet 竞赛中,神经网络对图像识别的准确率已经超过了人。但同时,另一种奇怪的情况也在发生。拿一张计算机已经识别得比较准确的图像,稍作“调整”,系统就会给出完全不同的结果,比如:

在左边的图像中,计算机认为图像是“熊猫”(57.7%),到了右边,就几乎肯定图像中显示的是“长臂猿”(99.3%)了。这个问题在 Goodfellow 等人《Explaining and Harnessing Adversarial Examples》一文中提出。

“神经网络很容易被骗过/攻击”这个话题,近来得到了越来越多研究者的讨论。

Szegedy 等人在《Intriguing properties of neural networks》一文中也提出了类似的例子。拿一张已经被正确分类的图像(左栏),加以扭曲(中间),在人眼看来与原图并无差异,但计算机会识别成完全不同的结果。

实际上,这样的情况并不仅限于图像识别领域,在语音识别、Softmax 分类器也存在。而语音、图像的识别的准确性对机器理解并执行用户指令的有效性至关重要。因此,这一环节也最容易被攻击者,通过对数据源的细微修改,就能达到让用户感知不到,但机器却能接收数据后做出错误的操作的结果,导致计算设备被入侵等一系列连锁反应

这样的攻击被称为“对抗性攻击”。和其他攻击不同,对抗性攻击主要发生在构造对抗性数据的时候,之后该对抗性数据就如正常数据一样,输入机器学习模型并得到欺骗的识别结果。

通过向机器学习模型的输入样本引入微扰,可能会产生误导模型错误分类的对抗样本。对抗样本能够被用于制作成人类可识别,但计算机视觉模型会错误分类的图像,使恶意软件被分类为良性软件,以及强迫强化学习代理在游戏环境中的不当行为。

作为对抗生成网络(GAN)的发明人,Ian Goodfellow 自己也在研究“对抗性图像”在现实物理世界欺骗机器学习的效果,并由此对对抗性攻击进行防御。

昨天,号称要回到谷歌组建 GAN 团队的 Ian Goodfellow 和在他的研究合作者在 arXiv 上传了一篇论文《可迁移性对抗样本空间》(The Space of Transferable Adversarial Examples),朝着防御对抗性攻击迈出了第一步。

他们在研究中发现,对抗样本空间中存在一个大维度的连续子空间,该子空间是对抗空间的很重要部分,被不同模型所共享,因此能够实现迁移性。而这也是不同模型遭受对抗性攻击一个很重要的原因。

作者在论文中写道,他们的贡献主要有以下几点:

  1. 我们引入了一些找到多个独立攻击方向的方法。这些方向张成了一个连续的、可迁移的对抗子空间,其维度比先前的结果大了至少一个数量级。
  2. 我们对模型的决策边界进行了该领域内的首次量化研究,表明了来自不同假设类的模型学习到的决策边界非常接近,而与对抗性方向与良性方向无关。
  3. 在正式的研究中,我们找到了迁移性的充分条件,也找到了对抗样本迁移性不满足的实例

论文:可迁移性对抗样本空间

摘要

对抗样本是在正常的输入样本中故意添加细微的干扰,旨在测试时误导机器学习模型。众所周知,对抗样本具有迁移性:同样的对抗样本,会同时被不同的分类器错误分类。这种现象使得研究人员能够利用对抗样本攻击部署的机器学习系统。

在这项工作中,我们提出了一种新颖的方法来估计对抗样本空间的维度。我们发现对抗样本空间中存在一个大维度的连续子空间,该子空间是对抗空间的很重要部分,被不同模型所共享,因此能够实现迁移性。可迁移的对抗子空间的维度意味着由不同模型学习到的学习边界在输入域都是异常接近的,这些边界都远离对抗方向上的数据点。对不同模型的决策边界的相似性进行了首次量化分析,结果表明,无论是对抗的还是良性的,这些边界实际上在任何方向上都是接近的。

我们对可迁移性的限制进行了正式研究,我们展示了:(1)数据分布的充分条件意味着简单模型类之间的迁移性;(2)迁移性不满足的任务示例。这表明,存在使模型具有鲁棒性的防御机制,能够抵御因对抗样本的迁移性而受到的攻击。

背景:对抗样本可迁移性是关键,首次估计了对抗样本子空间维度

论文中,研究人员首先对对抗性攻击及其影响做了阐释。

对抗样本经常在训练相同任务的不同模型之间迁移:尽管正在生成躲避特定架构的对抗样本,但是它们的类别被不同的模型误分。可迁移性是部署安全的机器学习系统的巨大障碍:对手可以使用本地代理模型制作能够误导目标模型的对抗样本以发起黑盒子的攻击。这些代理模型甚至在缺乏训练数据的情况下也能被训练,能实现与目标模型的交互作用最小。更好地理解为什么对抗样本具有迁移性,对于建立能成功防御黑盒攻击的系统是必要的。

对抗子空间:经验证据表明,对抗性样本发生在一些大的、连续的空间,而不是随机散布在小空间内。这些子空间的维度似乎与迁移性问题有关:维度越高,两个模型的子空间的可能相交越多。顺便说一句,这些子空间相交的越多,就越难以防御黑盒子的攻击。

该工作首次直接估计了这些子空间的维数。我们引入了一些发现多个正交对抗方向的方法,并展示了这些正交对抗方向张成了一个被错误分类的点的多维的连续空间。为了测量这些子空间的迁移性,我们在一些数据集上进行了实验,在这些数据集上不同的模型都达到了很高的准确率:数字分类和恶意软件检测。

我们在MNIST数据集上训练了一个全连接网络,平均来看,我们发现对抗样本在 25 维空间中迁移。

图一:梯度对齐对抗子空间(GAAS)。梯度对齐攻击(红色箭头)穿过决策边界。黑色箭头是与梯度对应的正交矢量,它们张成一个潜在的对抗输入(橙色)子空间。

高维度对抗子空间的迁移性意味着:用不同模型(如SVM和神经网络)训练得到的决策边界在输入空间是很接近的,这些边界都远离对抗方向上的数据点。经验表明,来自不同假设类的模型学习到的决策边界在任意方向上都是接近的,不管它们是对抗的还是良性的。

图三:这三个方向(Legitimate, Adversarial 和 Random)被用来测量两个模型决策边界之间的距离。灰色双端箭头表示两个模型在每个方向上的边界间距离。

更准确地说,我们发现,当进入远离数据点的任何方向,在到达决策边界之前行进的平均距离大于该方向上两个模型的决策边界的分开距离。因此,对抗微扰有足够的能力将数据点发送到远离模型的决策边界,并能够在不同的架构的其它模型中迁移。

可迁移的限制

鉴于迁移性的经验普遍性,我们很自然地会问迁移性是否能通过数据集的简单属性、模型类或训练算法来解释。我们考虑以下几点非正式的假设:

如果两个模型对一些模型都能实现低误差,同时对对抗样本表现出低的鲁棒性,这些对抗样本能在模型间迁移。

这个假设是悲观的:这意味着如果一个模型对它自己的对抗样本没有足够的抵抗力,那么它就不能合理地抵御来自其它模型的对抗样本(例如,前面提及到的黑盒子攻击)。然而,虽然在某些情况下,该假设与实际相符,但是我们的研究表明,在一般情况下,假设与实际并不相符。

我们为一组简单的模型类集合找到了针对上述假设形式的数据分布的充分条件。 即是,我们证明了模型不可知扰动的迁移性。这些对抗样本能够有效地攻击线性模型。然而,理论和经验都表明,对抗样本能够在更高阶模型(如二次模型)中迁移。

然而,我们通过构建了一个MNIST数据集的变体来展示了一个与上述假设不符的反例,因为对抗样本不能在线性和二次模型之间迁移。实验表明,迁移性不是非健壮的机器学习模型的固有属性。这表明有可能防御黑匣子的攻击——至少对于可能的攻击模型类的一个子集是满足的——尽管目标模型并不是如此健壮足以抵御它自己的对抗样本。

论文地址:https://arxiv.org/pdf/1704.03453v1.pdf

参考资料

http://karpathy.github.io/2015/03/30/breaking-convnets/

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-04-14,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
图像识别
腾讯云图像识别基于深度学习等人工智能技术,提供车辆,物体及场景等检测和识别服务, 已上线产品子功能包含车辆识别,商品识别,宠物识别,文件封识别等,更多功能接口敬请期待。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档