首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Goodfellow新研究:对抗样例让机器与人类双双上当

俗话说的好,耳听为虚。但眼见……也不一定为实。

机器学习模型很容易受到对抗样例的影响,一个图片中的微小变化可能会让模型将之认错。

例子数不胜数。熊猫图加上扰乱被判定为长臂猿,MIT研究让谷歌AI将乌龟识别城步枪,香蕉图上贴张贴纸就被识别成烤面包机。

熊猫变长臂猿(上),乌龟变步枪(左下),香蕉变面包机(右下)

在此之前,对抗样例只能让计算机上当。可怕的是,在Ian Goodfellow等人的最新研究中,对抗样例也能骗过人眼了。

在下面这张图像中,左边是原图,右边是生成的对抗样例。

计算机和被测试人类均认为左图为一只猫,而右图的对抗样例看起来更像一只狗。

骗过机器骗人类,这是项什么画风奇特的研究?

在论文Adversarial Examples that Fool both Human and Computer Vision中,来自谷歌、斯坦福和UC伯克利的Gamaleldin F.Elsayed、Shreya Shankar和Ian Goodfellow等五人想调查计算机视觉模型中强迁移对抗样例对人类视觉感知的影响,并借助3种主要方法检测对抗样例对人类视觉系统是否存在明显作用。

首先,研究人员用最近的黑盒对抗样例构建技巧,在无法获取模型体系结构和参数的情况下为目标模型创建对抗样例。

之后,他们调整机器学习模型,模仿视觉处理过程,让对抗样例更有可能从模型转移作用到人类。

最后,研究人员让人类在时限性环境中对对抗样例分类,因此即使人类感知的微小影响也可被检测到。之后,研究人员评估结果是否准确。换句话说,当人类能在分类任务上准确度较高时,行为的细微变化可能并不与可测量的准确度变化对应。

在原图为猫(最右)的情况下,随着攻击目标数量的增加,产生的图像看起来更像狗

研究人员发现,在计算机视觉模型中传递的对抗性例子成功影响了被测试人类的感知。这似乎揭示了一种计算机视觉模型和人脑之间共享的新错觉。

本文来自量子位,创业家系授权发布,略经编辑修改,版权归作者所有,内容仅代表作者独立观点。[ 下载创业家APP,读懂中国最赚钱的7000种生意 ]

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180224A0MJYK00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券