首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

MIT展示全新的欺骗算法,让AI错误识别图像

麻省理工学院被誉为黑客的摇篮,这里为世界各地的科技公司输送了大量的技术人才,最近MIT的计算机科学与人工智能实验室(CSAIL)的研究表明,即使是最先进的人工智能,比如Google的图像识别AI也可能被黑客欺骗,比如将一张滑雪者的图片上传到Google图片中,AI算法却识别出这是一只狗的图片。

研究人员在Google的Cloud Vision API进行了一个测试,他们将一张图的每一个像素都改变成不同的对象,同时保留图像中对象的原始分类,可以让图像识别算法“出错”。MIT的研究人员称这种技术可能会被用来欺骗TSA的潜在威胁识别算法,例如算法可能会将一把枪错误识别为一只乌龟,反之亦然。更进一步,利用这种技术黑客甚至还能用在自动驾驶汽车上,让系统识别错误的路标或行人距离,从而造成安全问题。

某些算法也可以通过逐个改变像素来欺骗AI所看到的图像,不过这些方法只限于低分辨率图像,而MIT自己的算法就有效得多,CSAIL团队使用了一种名为“自然进化策略”(NES)的算法,在上述“狗变成滑雪者”的例子中,该算法主要进行了两个步骤:首先从AI的角度来看尝试将图像看起来更像狗,然后改变像素的RGB值,让图片看起来更像两个滑雪者。

AI的潜力非常大,未来我们会在这个领域看到更多研究,像上面所说的欺骗AI实例也有可能继续发生。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171221A0DZO000?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券