首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

机器学习界“硝烟再起”:今年 ICLR 8 篇防御相关论文,7 篇已被攻破

最近,一篇论文的横空出世又引发了机器学习学术界的大讨论。无论是被誉为“GANs 之父”的 Ian Goodfellow,还是谷歌大脑负责人 Jeff Dean 都参与其中。

论文地址:

https://arxiv.org/abs/1802.00420

这篇论文名为《Obfuscated Gradients Give a False Sense of Security: Circumventing Defenses to Adversarial Examples》(用混淆梯度制造虚假安全感:绕过对抗样本防御),作者之一就是来自麻省理工学院的 Anish Athalye。

文章之所以引战度很高,是因为 Anish Athalye 在其推特上宣称,“对抗样本防御依然悬而未决。三天前的 ICLR 接收的论文中,我们已经攻破了其中 7/8 的防御相关论文。”ICLR 会议 (the International Conference on Leaning Representations) 是一个在深度学习领域极具行业影响力的学术会议。

Anish Athalye 还表态称:“我们研究了 ICLR 论文,结果并不令人满意”。其论文也宣称,“混淆梯度”给防御对抗样本带来了虚假的安全感,尽管基于混淆梯度的防御可以打败基于优化的攻击,但这样的防御仍能被攻破。

具体而言,他们的样本研究试验了 ICLR 2018 接收的所有防御措施,其中混淆梯度的使用非常普遍,8 个防御中 7 个依靠混淆梯度,但他们的新型攻击技术依然成功攻破了 7 个。

GitHub 地址:

https://github.com/anishathalye/obfuscated-gradients

在 Anish Athalye 的 GitHub 中,他演示了如何对猫的图像加入轻微的干扰就能“欺骗”机器的例子。最后,机器将猫头像错认成“果酱”。他认为,使用梯度下降法就能轻易获得这样的“欺骗性图像”。

对于 Anish Athalye 的这番言论,Ian Goodfellow 提出质疑。他说:“文中提出的‘混淆梯度’其实是给‘梯度掩码’换个名号而已”。

图丨多种对抗性样本防御方法在攻击下的鲁棒性

目前,Anish Athalye 尚未回应 Ian Goodfellow 的这一观点。

-End-

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180204B0IA2100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券