最近,一篇论文的横空出世又引发了机器学习学术界的大讨论。无论是被誉为“GANs 之父”的 Ian Goodfellow,还是谷歌大脑负责人 Jeff Dean 都参与其中。
论文地址:
https://arxiv.org/abs/1802.00420
这篇论文名为《Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples》(用混淆梯度制造虚假安全感:绕过对抗样本防御),作者之一就是来自麻省理工学院的 Anish Athalye。
文章之所以引战度很高,是因为 Anish Athalye 在其推特上宣称,“对抗样本防御依然悬而未决。三天前的 ICLR 接收的论文中,我们已经攻破了其中 7/8 的防御相关论文。”ICLR 会议 (the International Conference on Leaning Representations) 是一个在深度学习领域极具行业影响力的学术会议。
Anish Athalye 还表态称:“我们研究了 ICLR 论文,结果并不令人满意”。其论文也宣称,“混淆梯度”给防御对抗样本带来了虚假的安全感,尽管基于混淆梯度的防御可以打败基于优化的攻击,但这样的防御仍能被攻破。
具体而言,他们的样本研究试验了 ICLR 2018 接收的所有防御措施,其中混淆梯度的使用非常普遍,8 个防御中 7 个依靠混淆梯度,但他们的新型攻击技术依然成功攻破了 7 个。
GitHub 地址:
https://github.com/anishathalye/obfuscated-gradients
在 Anish Athalye 的 GitHub 中,他演示了如何对猫的图像加入轻微的干扰就能“欺骗”机器的例子。最后,机器将猫头像错认成“果酱”。他认为,使用梯度下降法就能轻易获得这样的“欺骗性图像”。
对于 Anish Athalye 的这番言论,Ian Goodfellow 提出质疑。他说:“文中提出的‘混淆梯度’其实是给‘梯度掩码’换个名号而已”。
图丨多种对抗性样本防御方法在攻击下的鲁棒性
目前,Anish Athalye 尚未回应 Ian Goodfellow 的这一观点。
-End-
领取专属 10元无门槛券
私享最新 技术干货