前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >百度介绍测试人工智能模型稳健性的对抗工具箱

百度介绍测试人工智能模型稳健性的对抗工具箱

作者头像
AiTechYun
发布2020-02-21 12:56:47
6040
发布2020-02-21 12:56:47
举报
文章被收录于专栏:ATYUN订阅号ATYUN订阅号

不管人工智能和机器学习系统在生产中宣称的稳健性如何,没有一个系统能够完全抵御对手的攻击,也没有一个技术能够通过恶意输入来愚弄算法。结果表明,即使在图像上产生很小的扰动,也能以很高的概率愚弄最好的分类器。考虑到“人工智能即服务”业务模式的广泛推广问题,亚马逊、谷歌、微软、克拉里菲等公司已经将易受攻击的系统提供给最终用户。

科技巨头百度的研究人员在最近发表的一篇关于ARXIV.ORG:Advbox的论文中,提出了部分解决方案。他们把它描述为一个开源的工具箱,用来生成对抗性的例子,他们说它能够愚弄Facebook的Pythorch和Caffe2、MxNet、Keras、谷歌的TensorFlow以及百度自己的Paddle等框架中的模型。

尽管Advbox本身并不新鲜,但百度论文还是深入揭示了技术细节。AdvBox是基于Python的,它实现了几种常见的攻击,这些攻击执行对敌对样本的搜索。每种攻击方法都使用距离度量来量化敌方干扰的大小,支持图像分类和对象检测模型以及云api的子模型-感知器-评估模型对噪声、模糊、亮度调整、旋转等的稳健性。

AdvBox提供了测试易受所谓对抗性t恤衫或面部识别攻击的检测模型工具。此外,它还提供了通过包含的Python脚本访问百度云托管的deepfakes检测服务。合著者写道:“即便是通常来说不易察觉的干扰,也足以愚弄最强大的人工智能,与以前的工作相比,我们的平台支持黑箱攻击……以及更多的攻击场景。”

百度并不是唯一一家旨在帮助数据科学家抵御攻击的公司。在去年,IBM和MIT发布了一个评估机器学习和人工智能算法稳健性的指标,名为Cross-Lipschitz网络稳健性极值,简称CLEVER;4月,IBM发布了一个名为“对抗性健壮性工具箱”的开发工具包,其中包括测量模型漏洞的代码,并建议了防止运行时操作的方法。另外,德国Tübingen大学的研究人员创建了Foolbox,这是一个Python库,用于生成针对TensorFlow、Keras和其他框架的20多种不同攻击。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2020-01-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 ATYUN订阅号 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
云托管 CloudBase Run
云托管 CloudBase Run(Tencent CloudBase Run,TCBR)是由云开发提供的新一代云原生应用引擎(App Engine 2.0),支持托管任意语言和框架编写的容器化应用。和云开发其他产品(云函数、云数据库、云存储、扩展应用、HTTP 访问服务、静态网站托管等)一起为用户提供云原生一体化开发环境和工具平台,为开发者提供高可用、自动弹性扩缩的后端云服务。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档