前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >ICLR 2020 | 华盛顿大学:图像分类中对可实现攻击的防御(视频解读)

ICLR 2020 | 华盛顿大学:图像分类中对可实现攻击的防御(视频解读)

作者头像
AI科技评论
发布2020-03-20 10:34:51
4620
发布2020-03-20 10:34:51
举报
文章被收录于专栏:AI科技评论

作者 | 吴同

编辑 | 蒋宝尚

本文是对华盛顿大学完成的,被ICLR 2020录用的论文《Defending Against Physically Realizable Attacks on Image Classification》进行解读,相关工作已经开源。

论文:https://openreview.net/pdf?id=H1xscnEKDr 代码:https://github.com/tongwu2020/phattacks

论文简介:

我们研究了深度神经网络图像分类方法对物理可见攻击的防御问题。首先,我们证明了两种可扩展且有效的学习鲁棒模型的方法,即使用PGD攻击的对抗性训练和随机平滑,对当前三种“最引人注目”物理攻击的防御非常有限。

另外,我们提出了一种新的对抗性模型:矩形遮挡攻击,即在图像中放置一个小的对抗性矩形。此外还开发了用两种有效计算得到的对抗性示例的方法。最后,我们证明,使用我们的新对抗性训练产生的图像分类模型对物理可见攻击表现出很高的鲁棒性,也为这种攻击提供了第一种有效的通用防御。

作者简介:

吴同,华盛顿大学圣路易斯分校大四本科生。研究方向:对抗机器学习

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-03-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档