谷歌的图像识别AI被新技巧所欺骗

奥本大学的研究人员通过将空间中的物体旋转到新的位置,训练了一个神经网络来欺骗谷歌最好的图像识别系统Inception。经验教训是,今天的人工智能并不能很好地识别物体。

人工智能在过去几年取得进步 的独特例子是计算机能够识别图片中的某些东西。尽管如此,即使是简单的测试也能说明这种能力到底有多么脆弱。

游戏系统的最新技巧来自阿拉巴马州奥本市奥本大学和媒体巨头Adobe Systems的研究人员。在本周发布的一篇论文中,他们表明,如果物体移动或旋转甚至少量,顶级图像识别神经网络很容易失败。

例如,从头部看到的消防车可以被正确识别。但是,一旦指向空中并转过几次,同一辆消防车被神经网络误分类为校车或救火船或雪橇。

虽然先前的研究已经表明图像可以在纹理或光照方面进行修改以欺骗神经网络,但这是第一次操纵“姿势”,意味着物体的3D方向,以生成可能会跳闸的图像样本 - 网络。

结果是图像识别的技术水平是“天真的”,并且需要对三维结构有一些更深入的了解才能使它们变得更好。

他们总结说, 最先进的神经网络,如Google的Inception,擅长于对图片中的东西进行“分类”,但他们并没有真正意识到对象,真正意义上的表达。

研究人员购买了100个三维计算机渲染对象的数据集,这些对象比用于训练神经网络进行图像识别的ImageNet数据库中的内容更加微笑。这意味着车辆,如校车和消防车,停车标志,长椅和狗。

然后,他们通过改变物体的俯仰,偏航和滚动来修改这些3D物体。他们使用一种称为“随机搜索”的程序来寻找可能欺骗谷歌最先进的“Inception v.3”网络的姿势。从本质上讲,他们正在训练一组方程式,以便善于生成图片的“对抗性示例”,将一个神经网络与另一个神经网络进行对比。

他们写道,在他们的测试中,Inception“绝大多数样本都是错的”。“所有30个对象的正确分类的中位数百分比仅为3.09%。”

关键的一点是,Google的Inception实际上并没有错误地描述一个对象的所有图像 - 一些图像由它正确的系统生成。但它所得到的东西往往非常狭窄,被那些超出常规的姿势所迷惑。

他们写道:“当物体在世界上旋转时,DNN识别图像中物体(例如消防车)的能力会发生根本变化。”

作者发现只需要进行一些修改就可以产生很大的影响:在“俯仰”方面将物体移动8度与在场景中“滚动”方面移动9.17的差异足以使Inception混乱。对抗神经网络能够将Inception发送到杂草中,迫使它在797个不同的对象类别中对事物进行错误分类。

结果是,Inception和其他类似的图像识别系统本身并没有真正识别对象。“总而言之,我们的工作表明,最先进的DNN可以很好地执行图像分类,但仍然远离真正的物体识别,”他们写道。但他们发现,即使对象检测也可能被愚弄。然后,作者使用他们的对抗系统来采用顶级的“Yolo v3”对象识别系统。他们发现,击败Inception的75.5%的图像也欺骗了Yolo。

很明显,神经网络可能需要一些实质性的帮助来推进。即使重新训练“AlexNet” 神经网络,ImageNet数据库中包含对抗图像,在训练结束后呈现对抗图像的新例子时,它仍然被愚弄。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181201A0G4OC00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券