前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >学界 | Ian Goodfellow牵头举办NIPS机器学习对抗赛,提升系统鲁棒性

学界 | Ian Goodfellow牵头举办NIPS机器学习对抗赛,提升系统鲁棒性

作者头像
AI科技评论
发布2018-03-13 14:30:04
7630
发布2018-03-13 14:30:04
举报
文章被收录于专栏:AI科技评论AI科技评论

via pulse2

每年年底举办的 NIPS 都是令学者为之一振的顶级学术盛会。AI 科技评论了解到,今年首次增加了一个新议程,即「NIPS 2017 Competition Track」。本次竞赛活动从 23 个候选提案中选择了五个数据驱动的比赛项目,覆盖领域广泛。而今天谷歌大脑研究员 Ian Goodfellow 在 Twitter 上强烈推荐了他牵头组织的 Adversarial Attacks and Defences(对抗攻击防御)比赛。而 Nicolas Papernot 也倾情转发支持。

这一比赛由 Alexey Kurakin、Ian Goodfellow 和 Samy Bengio 一同举办。目前大多数现有的机器学习分类器的鲁棒性很差,容易受对抗样本的影响。样本经过轻微修改后,可能就会让机器学习分类器受到迷惑,并进行错误的分类。这些修改可能人类几乎无法看出区别,这可能会对机器学习分类器的安全性产生不利影响。因此,这一比赛主要也是为了加快研究机器学习分类器的对抗样本,提升其鲁棒性。

Kaggle 前段时间被谷歌收购,因此这一比赛也自然而然在 Kaggle 上发布。虽然是在 Kaggle 上发布具体介绍,但这一比赛依然要遵循 NIPS 2017 Competition Track 的相关规定。

比赛的全名为 Non-targeted Adversarial Attack,简介是「Imperceptibly transform images in ways that fool classification models」,也就是说,需要以欺骗分类模型的方式将图片巧妙地移花接木。具体而言,分为三个竞赛项目:

  • Non-targeted Adversarial Attack,竞赛者所提交的系统需要对给定的图片进行处理,使得某个通用机器学习分类器无法识别。
  • Targeted Adversarial Attack,竞赛者所提交的系统需要对给定的图片进行处理,让某个通用机器学习分类器能成功识别图像属于特定类别。
  • Defense Against Adversarial Attack,竞赛者需要构建一个机器学习分类器,拥有足够的鲁棒性使之能正确鉴别对抗性的图像。

比赛将在给定的数据集中进行测试,并且希望参赛者能针对数据集中的每张图像生成对应的对抗样本。所有生成的图片将在所有提交的防御性分类器中进行测试,如果分类器分类错误,则对方得一分。而每次攻击都会依照下面的公式进行计算,分数越高,则说明攻击系统的效果越好。

在本次比赛中,用于攻击与防御所用的分类任务都是源于 ImageNet。谷歌希望参赛者也能构建强大的 ImageNet 分类器,并且能抵御对抗攻击。

此外,为了让竞争更加有趣,而且避免公共数据的过度使用,将采用 DEV 与 TEST 数据集对结果进行评估与测试。DEV 数据集涵盖 1000 张图像,而 TEST 数据集目前保密,将在比赛结束后公开。

AI 科技评论了解到,8 月 1 日、9 月 1 日、9 月 15 日将分别启动三轮开发进程,并在 10 月 1 日截止提交。在 Kaggle 页面上包含了参赛的详细信息,感兴趣的同学朋友们可以密切关注这一赛事。

NIPS 介绍页面:https://nips.cc/Conferences/2017/CompetitionTrack

Kaggle 介绍页面:https://www.kaggle.com/c/nips-2017-non-targeted-adversarial-attack#description,AI 科技评论整理

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2017-07-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档