首页
学习
活动
专区
工具
TVP
发布

骗过机器学习的对抗样本,竟然连人也不放过

星爷这个“好像”,用得实在太好了。

2017 年科学家终于解开了灵长类动物能够识别面部的“代码”,推翻了对于“大脑黑箱”的假设。

猕猴实验表明,面部识别是由大脑中 200 多个不同神经元共同“编码”合作完成,每个神经元对同一个面部的不同特征参数进行处理组合。不过,科学家仍然不知道这一切是如何联系起来的。大脑依旧是迷。

我们反观受到神经科学启发的人工神经网络在机器学习中扮演了重要角色,突出的成就难掩算法时不时犯一些低级错误的尴尬。

对抗样本:AI 刺客

过去几年人工智能学者取得了巨大的突破,深度学习更是让冷冰冰的机器“耳聪目明”,不仅能够从视频中认出猫,还能识别路上的行人和交通信号灯。

但是就像时间是人类的致命弱点,“对抗样本”对机器学习而言,也是刺客一般的存在。

对抗样本(adversarial example)是指通过添加干扰产生能够导致机器学习模型产生错误判断的样本。举个例子:

原图为大熊猫,经过处理后的对抗样本被识别为长臂猿。

忽悠 AI 的相似案例专家已经揭示过很多,我们也曾分享过

图像识别系统错识道路指示牌

谷歌图像分类器把模型龟当成来复枪:

错把行动的小猫当成显示器等等。

最近研究者构造出连人能骗过的对抗样本图像:愚弄人类恐怕只要一瞬间。

骗人的算法

上图中的是猫是狗,似乎很容易判断。那我们提高难度:

左边是一只猫的原图,右边是经过干扰(很像狗)的图像,出自谷歌大脑 Ian Goodfellow 等人的最新论文《Adversarial Examples that Fool both Human and Computer Vision》。(地址见文章结尾)

机器学习模型很容易受到对抗样本的愚弄,现在看来,连人都会受对抗样本的影响。

论文中阐述了其中原理:研究者将对抗性从计算机视觉现有的模型及参数,迁移到新的模型中,对模型进行修改以接近人类视觉系统原理。

下图中的狗就被用于生成新的图像,误导人进行判断。

结果发现,通过人为迁移生成的对抗性图片,能够在有限时间内对人类识别产生影响。也就是说,这些对抗性图片不仅对能骗过机器,同样也会误导人的判断。

虽然对抗样本欺骗人类的危害难以估量,不过可以肯定的是,机器学习的“坑爹技能”已经上线了。

论文地址 https://arxiv.org/pdf/1802.08195.pdf

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180224A0XD8100?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券