首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

保护AI免受攻击,防止显示伪造数据

人工智能系统有时可能被欺骗,比如说看到一些实际上并不存在的东西。Google的软件就曾经将3D打印的海龟误以为是步枪。本周早些时候,Google Brain研究员Ian Goodfellow解释了AI系统如何为自己正名。一份报告显示:Goodfellow,作为生成敌对网络(GAN)的创造者,其发明的该网络是一种利用两个网络对相同数据进行训练的人工智能。其中一个网络(称为生成器)创建合成数据,通常是图像,而另一个网络(称为鉴别器)使用相同的数据集来确定输入是否是真实的。古德费洛经历了十几个不同研究人员在其工作中使用GANs的例子。

但他现在专注于他目前主要的研究方向,捍卫机器学习系统免受欺骗。

GAN非常善于创造现实的对抗性例子,这些例子最终将成为训练AI系统以发展强大防御的一种非常好的方式。如果系统接受过对抗性例子的培训,他们会更好地识别对抗性攻击。这些对抗性例子越好,防守就越强。

  • 发表于:
  • 原文链接http://tech.slashdot.org/story/18/04/01/1852203/to-protect-ai-from-attacks-show-it-fake-data
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券