首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

Procedural Noise Adversarial Examples for Black-Box Attacks on Deep Neural Networks论文笔记(1)

如今一些深度神经网络对于一些对抗性样本(Adversarial sample)是弱势的, 对抗性样本就是指我们对输入进行特定的改变, 通过原有的学习算法最终导致整个网络内部出现误差, 这属于攻击的一种, 然而, 现在的攻击都是要么计算代价特别大, 要么需要对目标的模型和数据集有大量的先验知识, 因此, 这些方法在实际上其实都不实用. 该文章主要介绍了一种程序性噪声, 利用该噪声, 使得构造实用的低计算量的黑盒攻击成为了可能, 对抗鲁棒性的神经网络结构, 比如Inception v3和Inception ResNet v2 在ImageNet数据集上. 该文章所提出来的攻击实现了低尝试次数下成功造成错分类. 这种攻击形式揭露了神经网络对于Perlin噪声的脆弱性, Perlin噪声是一种程序性噪声(Procedural Noise), 一般用于生成真实的纹理, 使用Perlin噪声可以实现对所有的分类器都实现top1 至少90%的错误率, 更加令人担忧的是, 该文显示出大多数的Perlin噪声是具有"普适性"(Universal)的, 在对抗样本中, 数据集的大部分, 使用简单的扰动使得高达70%的图片被错误分类

03

对具有对抗性噪声的可压缩信号进行恢复保证

摘要:我们为已经被噪声破坏的可压缩信号提供恢复保证,并扩展了[1]中引入的框架,以防御神经网络对抗l0范数和ℓ2范数攻击。具体地说,对于在某些变换域中近似稀疏并且已经被噪声扰动的信号,我们提供了在变换域中准确恢复信号的保证。然后,我们可以使用恢复的信号在其原始域中重建信号,同时在很大程度上消除噪声。我们的结果是通用的,因为它们可以直接应用于实际使用的大多数单位变换,并且适用于l0范数有界噪声和l2范数有界噪声。在l0-norm有界噪声的情况下,我们证明了迭代硬阈值(IHT)和基础追踪(BP)的恢复保证。对于ℓ2范数有界噪声,我们为BP提供恢复保证。理论上,这些保证支持[1]中引入的防御框架,用于防御神经网络对抗敌对输入。最后,我们通过IHT和BP对抗One Pixel Attack [21],Carlini-Wagner l0和l2攻击[3],Jacobian Saliency Based攻击[18]和DeepFool攻击[17]对CIFAR进行实验证明这个防御框架-10 [12],MNIST [13]和Fashion-MNIST [27]数据集。这扩展到了实验演示之外。

04

【顶刊论文分享】DeepSec:深度学习模型的安全性分析平台

在对抗攻击场景下,攻击者通过对合法输入的微扰生成对抗样本(Adversarial Example, AE),并试图使用对抗样本使目标深度学习(DL)模型误分类。由于DL模型在对抗样本的攻击下较为脆弱,因此限制了深度学习应用于具有较高安全性要求的领域,如自动驾驶、人脸识别、恶意软件检测等。防守方通常希望增强模型对对抗样本的防御能力,同时又能最大限度地保证模型的分类性能。虽然学术界和工业界对对抗样本的研究逐渐深入,攻击和防御手段在不断更新,但是仍很难说明哪些攻击样本隐蔽性或可转移性更高,或者哪种防御方法更加有效通用。

01

ShapeShifter: Robust Physical Adversarial Attack on Faster R-CNN Object Detector

鉴于直接操作数字输入空间中的图像像素的能力,对手可以很容易地产生难以察觉的扰动来欺骗深度神经网络(DNN)的图像分类器,正如前面的工作所证明的那样。在这项工作中,我们提出了ShapeShifter,这是一种解决更具挑战性的问题的攻击,即利用物理上的对抗扰动来愚弄基于图像的目标检测器,如Faster 的R-CNN。攻击目标检测器比攻击图像分类器更困难,因为需要在多个不同尺度的边界框中误导分类结果。将数字攻击扩展到物理世界又增加了一层困难,因为它需要足够强大的扰动来克服由于不同的观看距离和角度、光照条件和相机限制而造成的真实世界的扭曲。结果表明,原提出的增强图像分类中对抗性扰动鲁棒性的期望变换技术可以成功地应用于目标检测设置。变形机可以产生相反的干扰停止信号,这些信号经常被Faster R-CNN作为其他物体错误地检测到,对自动驾驶汽车和其他安全关键的计算机视觉系统构成潜在威胁。

05

机器学习模型中的 bug 太难找?DeepMind 呈上了三种好方法!

AI 科技评论按:计算机编程发展至今,bug 和软件就一直如影随形。多年来,软件开发人员已经创建了一套在部署之前进行测试和调试的最佳方法,但这些方法并不适用于如今的深度学习系统。现在,机器学习的主流方法是基于训练数据集来训练系统,然后在另一组数据集上对其进行测试。虽然这样能够显示模型的平均性能,但即使在最坏的情况下,保证稳健或可被接受的高性能也是至关重要的。对此,DeepMind 发布文章介绍了能够严格识别和消除学习预测模型中的 bug 的三种方法:对抗测试(adversarial testing)、鲁棒学习(robust learning)和形式化验证(formal verification)。AI 科技评论编译如下。

02

机器学习模型中的 bug 太难找?DeepMind 呈上了三种好方法!

AI 科技评论按:计算机编程发展至今,bug 和软件就一直如影随形。多年来,软件开发人员已经创建了一套在部署之前进行测试和调试的最佳方法,但这些方法并不适用于如今的深度学习系统。现在,机器学习的主流方法是基于训练数据集来训练系统,然后在另一组数据集上对其进行测试。虽然这样能够显示模型的平均性能,但即使在最坏的情况下,保证稳健或可被接受的高性能也是至关重要的。对此,DeepMind 发布文章介绍了能够严格识别和消除学习预测模型中的 bug 的三种方法:对抗测试(adversarial testing)、鲁棒学习(robust learning)和形式化验证(formal verification)。AI 科技评论编译如下。

04
领券