首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

欺骗计算机视觉软件越来越容易?一个纸片就搞定!

一张纸片,香蕉秒变烤箱!

如果你想要尝试欺骗一下AI视觉系统,这篇文章介绍的这些小纸片可以帮不少忙。

很长一段时间,计算机科学家都在尝试生成可以欺骗AI的特殊图像。这些图画或是形状被称为“对抗性图像”,它们可以利用计算机看世界的弱点来进行攻击。你可以将他们想成一种错觉,一种AI的错觉。它们可以被制成眼镜来欺骗面部识别系统,也可以被打印成真实物体,而现在,谷歌的研究者们将他们缩小成了一块纸片。

日前,谷歌研究人员发布了一篇记录这些纸片发明过程的论文。虽然这算不上标志一个新技术天翻地覆的分水岭,但也是对抗性图像技术的一个重要突破。这些图像不仅可以在世界各地被打印出来,还非常的灵活。不像其他对抗性攻击,他们不需要附着在被识别的图像上面,研究人员也不需要小心调整他们在图像中的位置。在展示的视频中,研究人员轻松将香蕉变成了一只烤箱。

研究者们在论文中写到,这些纸片“允许攻击者在对实际亮度,摄像机角度,真实事物的标签,甚至是旁边还有没有其他物体都不知情的情况下进行攻击。”所以,当这样的图像被生产之后,“它可以被上传在网络上,供所有攻击者打印使用。”

这就是为什么很多人工智能研究者担心这样的攻击会被运用到无人车运行系统中。想像一下这样一个小纸片就可以让你的座驾以为自己识别到了一个减速标记,或者可以让你的车子在人工智能监督系统中消失。“即使人们可以看到这些纸片,他们也无法知道它们究竟有什么功能。”

还好,现阶段我们还不需要担心这样的攻击。虽然对抗性图像可以非常有效,他们并不是对所有AI系统都一样有效。这篇论文中的谷歌研究者花费了很长的时间来制作这样的图像,而且知道他们想要攻击的视觉系统的代码。但这一研究仍然显示出类似攻击正在变得越来越灵活和有效。而这一切只是个开始。

本文编译自The Verge。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180110C0B93X00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券