动态 | Goodfellow最新对抗样本,连人类都分不清是狗是猫

AI 科技评论按:机器学习模型容易受到对抗样本的影响,这已不是什么新鲜事。相信下面大家对下面这幅图(Goodfellow et al., 2014)都不陌生:

Goodfellow 凭借这张图让我们知道,即使对样本微小的改变也能欺骗学习模型,让模型做出南辕北辙的判断。这项工作充分说明了目前 AI 系统的脆弱性。

近期 Goodfellow 等人在「欺骗」上又更上一层楼,不光是欺骗机器,连人类也被欺骗了。

如上图所示,机器模型和人类都会判断左侧是猫,而右侧是狗,即使你仔细观察可能也会得出相同的结论。而事实上右侧图像只是左侧图像一个简单地对抗扰动。相关的工作发表在《Adversarial Examples that Fool both Human and Computer Vision》。

意义

这篇文章的重要意义不言而喻。如论文摘要中所说:「机器学习模型易受对抗样本的攻击这点大家已经非常清楚;人类是否也有相同的弱点还是一个开放性问题;而这篇文章提出了第一个能够欺骗人类的对抗样本。」

论文中还说到它对机器学习安全研究的影响。从机器学习安全的角度来考虑,如果我们知道人脑可以抵御某些类型的对抗样本,那么这就说明在机器学习安全中存在类似的机制,这为我们寻找它们提供了信心和线索;反过来,如果我们知道存在对抗样本能够欺骗我们的大脑,那么这就告诉我们,机器学习安全的重心不应该是研究如何设计鲁棒性极高的模型,而应是研究如何保证系统即使包含非鲁棒性的 ML 组件,仍然是安全的。

另一方面,如果针对计算机视觉开发的对抗样本对人脑也有影响,这将为我们了解人脑的工作机理提供某些线索。

思路

在 Goodfellow et al.(2014) 的文章之后,计算机视觉领域相继出现很多构建对抗样本的流行算法,这些算法的一个共同点就是依赖模型的架构和参数来对输入进行梯度优化。但是,我们好像没办法获取大脑这个模型的「架构」以及「参数」。那么如何才能构建针对人类的对抗样本呢?

这就需要考虑一个比较有意思的现象了——对抗样本通常可以在模型之间进行迁移;也即是说,我们可以通过迁移的方法来攻击哪些不知道其「架构」和「参数」的模型。这就使得构建针对人类的对抗样本成为可能。

当然事情并不是这么简单。作为人类,我们有很多认知偏差或者视觉错觉,但是这些偏差或错觉并不等同于之前研究中对图像的微小扰动。此外,我们可以通过学习损失函数来优化机器模型的对抗样本,但是对于人类,这种方法显然是无效的(或者需要花费极大的劳动)。所以到目前为止并没有看到有将迁移性对抗样本应用于人类视觉感知领域的研究。

这篇文章的作者针对这些问题,采取了三个关键的思想来解决:

  • 之一,作者使用近期的黑箱对抗样本构建技术为一个目标模型(不需要知道模型的架构和参数)创建对抗样本;
  • 之二,作者对机器学习模型做了一番调整来模仿人类前期视觉处理过程,也即让模型更像人,使对抗模型更容易从学习模型迁移到人类;
  • 之三,由于人类在分类任务中的准确率太高,实验性能的微小改变可能达不到可观测的效果。于是作者在评估人类观察者的分类决策时,限制他们必须在一定的时间范围内做出决定,这样一来对抗样本对人的影响就更容易被检测出来了。

藉此三条,于是 Goodfellow 等人就构建出了能够同时欺骗机器学习模型和人类的对抗样本。

模型

作者构建了 k(k=10)个在 ImageNet 上训练的 CNN 模型,每个模型都是以下这些架构之一的实例 (Szegedy et al., 2015; 2016; He et al., 2016):

Inception V3, Inception V4, Inception ResNet V2

ResNet V2 50, ResNet V2 101, ResNet V2 152

如前面提到的思想之二,作者为每个模型输入前置了一个视网膜层,该视网膜层包含了一些人眼的视觉变换;甚至,作者还在这个视网膜层中添加了偏心依赖的模糊化,以更符合人类通过视网膜格子(注:人类视网膜不是密集排布的)输入的机理。

结果

让我们回到开头的那张图片。不得不说,这是一张极具代表性的例子,即使我们再多看几遍也仍然会认为右侧的那张图片是狗。

下面这张是更多的结果:

上面一列从左到右,是攻击不同个数(1,5,10)的模型生成的对抗样本,随后用两个测试模型(其中一个是人类模型)进行分类。可以看出攻击的目标模型数量越多,生成的图像对人类来说越像狗。

下面一列则是针对 10 个模型的攻击生成的对抗样本,从左到右为不同的攻击程度。文中介绍说 eps=8 时,人类受试者已经认为这是狗了。

p.s. 不过为什么笔者觉得原图好像也是只狗呢?U•ェ•*U

原文发布于微信公众号 - AI科技评论(aitechtalk)

原文发表时间:2018-02-25

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏机器之心

业界 | Petuum提出对偶运动生成对抗网络:可合成逼真的视频未来帧和流

2866
来自专栏PPV课数据科学社区

传说中的贝叶斯统计到底有什么来头?

贝叶斯统计在机器学习中占有一个什么样的地位,它的原理以及实现过程又是如何的?本文对相关概念以及原理进行了介绍。 引言:在很多分析学者看来,贝叶斯统计仍然是难以理...

2936
来自专栏机器之心

MILA 2018夏季深度学习与强化学习课程资源大放送

MILA 2018 夏季课程包括深度学习夏季课程(DLSS)和强化学习夏季课程(RLSS),并主要由以下机构支持。Yoshua Bengio 等人组织的夏季课程...

1102
来自专栏携程技术中心

干货 | 携程酒店浏览客户流失概率预测

作者简介 陈无忌,就读于中国科学技术大学计算机学院,15 级硕士研究生。研究方向机器学习、大数据、智能交通等。在校期间多次参加大数据竞赛,在携程云海平台比赛中,...

6928
来自专栏算法channel

机器学习期望最大算法:实例解析

交流思想,注重分析,更注重通过实例让您通俗易懂。包含但不限于:经典算法,机器学习,深度学习,LeetCode 题解,Kaggle 实战。期待您的到来! 01 —...

3737
来自专栏人工智能

从基础知识到实际应用,一文了解机器学习非凸优化技术

选自arXiv 优化技术在科技领域应用广泛,小到航班表,大到医疗、物理、人工智能的发展,皆可看到其身影,机器学习当然也不例外,且在实践中经历了一个从凸优化到非凸...

22010
来自专栏小小挖掘机

从贝叶斯角度看L1及L2正则化

首先写一下为什么会写这个吧,之前在看linUCB的一篇博客的时候,看到了这么一段话:

1321
来自专栏新智元

【珍藏】了解CNN这一篇就够了:卷积神经网络技术及发展

【新智元导读】深度学习很火,说起深度学习中一个很重要的概念——卷积神经网络(CNN)似乎也人人皆知。不过,CNN究竟是什么,涉及哪些概念,经过如何发展,真正要有...

3558
来自专栏IT派

干货 | 机器学习之必知必会6个点

导语:过去两年中,我曾经多次折服于机器学习的魅力。但每当我决定尝试新事物时,经常会不得不重新学习某些概念和课程,其实大部分学习就是这样一个过程。在学习机器学习这...

3435
来自专栏机器之心

入门 | 吴恩达Deeplearning.ai 全部课程学习心得分享

34511

扫码关注云+社区