前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >研究人员找到“绑架”神经网络的方法

研究人员找到“绑架”神经网络的方法

作者头像
人工智能快报
发布2018-07-26 16:40:38
2930
发布2018-07-26 16:40:38
举报
文章被收录于专栏:人工智能快报人工智能快报

【概要】谷歌的研究人员找到了一种方法,可以“绑架”神经网络,迫使它去完成计划之外的任务。

现有的计算机视觉算法并不完美。在2018年7月,谷歌的研究人员证明了一种流行的物体检测应用程序接口(API)可能会被欺骗,以至于将猫识别为“疯狂的被子(由各色布料拼制成的被面)”和“玻璃纸”。不幸的是,这还不是最糟糕的:它们也可能被迫对图像中的方块进行计数,对数字进行分类,并执行预定任务之外的其他任务。

谷歌的研究人员在Arxiv.org发表了一篇题为“神经网络的对抗性重编程”的论文,描述了一种能够对机器学习系统进行重新编程的对抗性方法。转移学习(transfer learning)的新形式甚至不需要攻击者指定输出。

研究人员写道:“我们的结果首次证明 ......可能会发生对神经网络进行重新编程的对抗性攻击......。这些结果证明了深度神经网络存在令人惊讶的灵活性和脆弱性。”它的工作原理如下:恶意行为者获得了正在执行任务的敌手神经网络的参数,然后以转换的形式引入扰动或对抗数据,并借以输入图像。随着对抗性输入被馈送到网络中,它们会将网络学习到的特征应用于执行新的任务。

科学家在六种模型中测试了该方法。通过嵌入来自MNIST计算机视觉数据集的操纵输入图像(大小在1到10之间的黑色帧和白色方块),他们成功使得所有六种算法将计算目标改为计算图像中的方块数,而不是识别像“白鲨”和“鸵鸟”这样的对象。在第二个实验中,他们强迫上述算法对数字进行分类。在第三次也是最后一次测试中,他们让模型识别来自CIFAR-10(一个物体识别数据库)的图像,而不是当初训练它们的ImageNet语料库。

恶意行为者可以通过攻击来窃取计算资源,例如,通过重新编程云托管照片服务中的计算机视觉分类器来解决图像验证码或挖掘加密货币。尽管该论文的作者没有在反馈神经网络(一种常用于语音识别的神经网络)中测试该方法,但据他们设想,成功的攻击可能会导致这类算法执行“一系列非常大的任务”。

研究人员写道:“对抗性程序也可以被用做一种新方法,以实施更传统的计算机黑客行为。例如,随着手机被越来越多地用做人工智能驱动的数字助理,对某些人的手机进行重新编程的可能性将会增加,方式是用对抗性图像或音频文件对这些手机进行攻击。由于这些数字助理可以访问用户的电子邮件、日历、社交媒体帐户和信用卡,因而此类攻击的后果也会变得更大。”

幸运的是,并不只有坏消息。研究人员指出,随机神经网络似乎比其他神经网络更不容易受到攻击,并且对抗性攻击可以使机器学习系统更易于调整用途、更灵活、更高效。尽管如此,研究人员写道,“未来应该调查如何解决对抗性编程的性质和局限性,以及防范的可能方法。”

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-07-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能快报 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
语音识别
腾讯云语音识别(Automatic Speech Recognition,ASR)是将语音转化成文字的PaaS产品,为企业提供精准而极具性价比的识别服务。被微信、王者荣耀、腾讯视频等大量业务使用,适用于录音质检、会议实时转写、语音输入法等多个场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档