动态 | Goodfellow最新对抗样本,连人类都分不清是狗是猫

AI 科技评论按:机器学习模型容易受到对抗样本的影响,这已不是什么新鲜事。相信下面大家对下面这幅图(Goodfellow et al., 2014)都不陌生:

Goodfellow 凭借这张图让我们知道,即使对样本微小的改变也能欺骗学习模型,让模型做出南辕北辙的判断。这项工作充分说明了目前 AI 系统的脆弱性。

近期 Goodfellow 等人在「欺骗」上又更上一层楼,不光是欺骗机器,连人类也被欺骗了。

如上图所示,机器模型和人类都会判断左侧是猫,而右侧是狗,即使你仔细观察可能也会得出相同的结论。而事实上右侧图像只是左侧图像一个简单地对抗扰动。相关的工作发表在《Adversarial Examples that Fool both Human and Computer Vision》。

意义

这篇文章的重要意义不言而喻。如论文摘要中所说:「机器学习模型易受对抗样本的攻击这点大家已经非常清楚;人类是否也有相同的弱点还是一个开放性问题;而这篇文章提出了第一个能够欺骗人类的对抗样本。」

论文中还说到它对机器学习安全研究的影响。从机器学习安全的角度来考虑,如果我们知道人脑可以抵御某些类型的对抗样本,那么这就说明在机器学习安全中存在类似的机制,这为我们寻找它们提供了信心和线索;反过来,如果我们知道存在对抗样本能够欺骗我们的大脑,那么这就告诉我们,机器学习安全的重心不应该是研究如何设计鲁棒性极高的模型,而应是研究如何保证系统即使包含非鲁棒性的 ML 组件,仍然是安全的。

另一方面,如果针对计算机视觉开发的对抗样本对人脑也有影响,这将为我们了解人脑的工作机理提供某些线索。

思路

在 Goodfellow et al.(2014) 的文章之后,计算机视觉领域相继出现很多构建对抗样本的流行算法,这些算法的一个共同点就是依赖模型的架构和参数来对输入进行梯度优化。但是,我们好像没办法获取大脑这个模型的「架构」以及「参数」。那么如何才能构建针对人类的对抗样本呢?

这就需要考虑一个比较有意思的现象了——对抗样本通常可以在模型之间进行迁移;也即是说,我们可以通过迁移的方法来攻击哪些不知道其「架构」和「参数」的模型。这就使得构建针对人类的对抗样本成为可能。

当然事情并不是这么简单。作为人类,我们有很多认知偏差或者视觉错觉,但是这些偏差或错觉并不等同于之前研究中对图像的微小扰动。此外,我们可以通过学习损失函数来优化机器模型的对抗样本,但是对于人类,这种方法显然是无效的(或者需要花费极大的劳动)。所以到目前为止并没有看到有将迁移性对抗样本应用于人类视觉感知领域的研究。

这篇文章的作者针对这些问题,采取了三个关键的思想来解决:

  • 之一,作者使用近期的黑箱对抗样本构建技术为一个目标模型(不需要知道模型的架构和参数)创建对抗样本;
  • 之二,作者对机器学习模型做了一番调整来模仿人类前期视觉处理过程,也即让模型更像人,使对抗模型更容易从学习模型迁移到人类;
  • 之三,由于人类在分类任务中的准确率太高,实验性能的微小改变可能达不到可观测的效果。于是作者在评估人类观察者的分类决策时,限制他们必须在一定的时间范围内做出决定,这样一来对抗样本对人的影响就更容易被检测出来了。

藉此三条,于是 Goodfellow 等人就构建出了能够同时欺骗机器学习模型和人类的对抗样本。

模型

作者构建了 k(k=10)个在 ImageNet 上训练的 CNN 模型,每个模型都是以下这些架构之一的实例 (Szegedy et al., 2015; 2016; He et al., 2016):

Inception V3, Inception V4, Inception ResNet V2

ResNet V2 50, ResNet V2 101, ResNet V2 152

如前面提到的思想之二,作者为每个模型输入前置了一个视网膜层,该视网膜层包含了一些人眼的视觉变换;甚至,作者还在这个视网膜层中添加了偏心依赖的模糊化,以更符合人类通过视网膜格子(注:人类视网膜不是密集排布的)输入的机理。

结果

让我们回到开头的那张图片。不得不说,这是一张极具代表性的例子,即使我们再多看几遍也仍然会认为右侧的那张图片是狗。

下面这张是更多的结果:

上面一列从左到右,是攻击不同个数(1,5,10)的模型生成的对抗样本,随后用两个测试模型(其中一个是人类模型)进行分类。可以看出攻击的目标模型数量越多,生成的图像对人类来说越像狗。

下面一列则是针对 10 个模型的攻击生成的对抗样本,从左到右为不同的攻击程度。文中介绍说 eps=8 时,人类受试者已经认为这是狗了。

p.s. 不过为什么笔者觉得原图好像也是只狗呢?U•ェ•*U

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2018-02-25

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏大数据挖掘DT机器学习

时间序列平滑法如何预测产品产量?

作者:王建辉 中元国际资产评估公司 应用收益法进行企业价值评估必须对企业的未来收益进行预测。如何科学地预测企业的未来收益,始终是企业价值评估中的难点。...

52812
来自专栏大数据挖掘DT机器学习

如何透彻的掌握一门机器学习算法

机器学习算法都是一个个复杂的体系,需要通过研究来理解。学习算法的静态描述是一个好的开始,但是这并不足以使我们理解算法的行为,我们需要在动态中来理解算法。 机器学...

3775
来自专栏超然的博客

模式识别课程笔记(一)

  人类在识别和分辨事物时,往往是在先验知识和以往对此类事物的多个具体实例观察基础上产生的整体性质和特征的认识。

671
来自专栏新智元

【珍藏】了解CNN这一篇就够了:卷积神经网络技术及发展

【新智元导读】深度学习很火,说起深度学习中一个很重要的概念——卷积神经网络(CNN)似乎也人人皆知。不过,CNN究竟是什么,涉及哪些概念,经过如何发展,真正要有...

3358
来自专栏TensorFlow从0到N

TensorFlow从1到2 - 1 - 深度神经网络

上一主题《TensorFlow从0到1》介绍人工神经网络的基本概念与其TensorFlow实现,主要基于浅层网络架构,即只包含一个隐藏层的全连接(FC,F...

42811
来自专栏大数据挖掘DT机器学习

如何透彻的掌握一门机器学习算法

机器学习算法都是一个个复杂的体系,需要通过研究来理解。学习算法的静态描述是一个好的开始,但是这并不足以使我们理解算法的行为,我们需要在动态中来理解算法。 机器...

2204
来自专栏机器之心

专栏 | 阿里 AI LAB ICCV 2017 录用论文详解:语言卷积神经网络应用于图像标题生成的经验学习

3387
来自专栏机器学习算法与Python学习

机器学习(1)之入门概念

关键字全网搜索最新排名 【机器学习算法】:排名第一 【机器学习】:排名第二 【Python】:排名第三 【算法】:排名第四 机器学习是什么 机器学习是什么?实际...

26310
来自专栏机器之心

深度 | 学习如何学习的算法:简述元学习研究方向现状

选自TowardsDataScience 作者:Cody Marie Wild 机器之心编译 参与:李诗萌、李泽南 要想实现足够聪明的人工智能,算法必须学会如何...

3465
来自专栏算法channel

机器学习数据预处理:数据降维之PCA

《实例》阐述算法,通俗易懂,助您对算法的理解达到一个新高度。包含但不限于:经典算法,机器学习,深度学习,LeetCode 题解,Kaggle 实战。期待您的到来...

2778

扫码关注云+社区