首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

动量迭代攻击和高层引导去噪:产生和防御对抗样本的新方法

分享背景

对抗样本是一类被恶意设计来攻击机器学习模型的样本。它们与真实样本的区别几乎无法用肉眼分辨,但是却会导致模型进行错误的判断。对抗样本的存在会使得深度学习在安全敏感性领域的应用收到威胁,如何对其进行有效的防御是重要的研究课题。 NIPS2017 举办了一个对抗样本攻防比赛,我们提出了两个新方法,各自获得了攻击方和防守方的第一名。

分享主题

动量迭代攻击和高层引导去噪:产生和防御对抗样本的新方法

分享提纲

什么是对抗样本

传统的攻击方法

传统的防守方法

动量迭代攻击

去噪方法

高层引导去噪方法

分享人简介

廖方舟,清华大学化学系学士,生医系在读博士。研究方向为计算神经学,神经网络和计算机视觉。参加多次 Kaggle 竞赛,是 Data Science Bowl 2017 冠军,NIPS 2017 对抗样本比赛冠军。Kaggle 最高排名世界第10。

分享时间

北京时间 12 月 19 日(周二)20:00

参与方式

扫描海报二维码添加社长微信,备注「廖方舟

上海交通大学博士讲师团队

从算法到实战应用

涵盖 CV 领域主要知识点

手把手项目演示

全程提供代码

深度剖析 CV 研究体系

轻松实战深度学习应用领域!

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171219A02C2M00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券