前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >视频 | 2分钟论文:谷歌新论文发现对抗样本也会骗人

视频 | 2分钟论文:谷歌新论文发现对抗样本也会骗人

作者头像
AI科技评论
发布2018-07-26 18:18:56
5070
发布2018-07-26 18:18:56
举报
文章被收录于专栏:AI科技评论AI科技评论

AI 科技评论按:雷锋字幕组出品系列短视频《2 分钟论文》,带大家用碎片时间阅览前沿技术,了解 AI 领域的最新研究成果。

翻译 | 于泽平 字幕 | 凡江 整理 | 吴璇

本期论文:对抗样本同时骗过人类和计算机视觉

Adversarial Examples that Fool both Human and Computer Vision

视频内容

▷ ▷每周一篇 2 分钟论文视频解读

我们都知道,机器学习模型容易受到对抗样本的影响。

比如,稍稍修改一点图像,就会导致计算机视觉模型出现错误,像是把校车认成鸵鸟。

然而,人类是否容易出现类相似的错误呢?

图片加入干扰能让猫看起来像狗

在这里,谷歌大脑的研究人员通过利用最近的技术创造了第一个欺骗人类的对抗样本,这些技术将具有已知参数和体系结构的计算机视觉模型的对抗样本,转换为其他具有未知参数和体系结构的模型,并且通过修改模型更加有效地匹配初始处理的人类视觉系统。

不同扰动方式对图片进行处理

研究发现,在人类观察时间有限的情况下,这些在计算机视觉模型之间进行重度迁移的对抗样本,已经干扰了人类对图像的分类。

论文原址: https://arxiv.org/abs/1802.08195

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-04-28,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技评论 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档