前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >机器学习安全不容忽视

机器学习安全不容忽视

作者头像
用户1737318
发布2018-07-20 15:40:01
2440
发布2018-07-20 15:40:01
举报
文章被收录于专栏:人工智能头条

来源 | CACM

编译 | 孙薇

过去五年中,机器学习技术获得了长足的进步。之前,这只是一个很有希望但并不成熟的技术,而如今在很多任务上,机器学习这项技术都可以达到与人类接近的水平。在不久的将来,从无人驾驶汽车到虚拟助手,再到人脸识别软件,多项直接影响社会的技术都可能会使用到机器学习。

恶意输入影响机器学习

然而在进步发展的同时,我们也要考虑安全问题。通过恶意输入,机器学习算法可能在训练期间“中毒”,或者在训练之后被复制。通过对图像进行人眼几不可见的微小改变,黑客可以愚弄视觉处理系统,对其进行欺骗。上图左侧的校车和狗在经过微调后,成为了右侧的图片。在人眼看来几无差别,但却可以欺骗视觉处理系统,将其识别为“鸵鸟”。

专家警告:不要等到机器学习算法用于数十亿台设备之后,再考虑被黑客攻击的问题。在机器学习的相关论文中,研究者们多次提出机器学习的不准确性——对某些像素进行微调,就能欺骗,神经网络。原因在于:虽然这些复杂的网络由多层处理器组成,但各个层面本质上都是通过分段线性函数来转换输入内容的,这种线性使得相关模型对推论容易盲从。

研究人员发现,他们设计了一个案例以愚弄某个机器学习算法,却同时骗到了其他机器学习算法。这意味着攻击者只需了解到相关的模型,知道该算法对数据分类的方式,就能使用这些数据来训练或攻击不同的模型。

研究者认为,目前正是考虑机器学习安全问题的最佳时机。软件开发者习惯在事后进行总结,修补Bug,而不是将其集成到开发阶段。而机器学习是一个巨大的领域,我们应当从最开始就考虑到安全的问题。目前已有解决对策:将黑客所使用的误导案例也添加到机器学习库里,为机器学习算法“接种疫苗”,这样将会让神经网络更难被欺骗。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-07-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 人工智能头条 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
人脸识别
腾讯云神图·人脸识别(Face Recognition)基于腾讯优图强大的面部分析技术,提供包括人脸检测与分析、比对、搜索、验证、五官定位、活体检测等多种功能,为开发者和企业提供高性能高可用的人脸识别服务。 可应用于在线娱乐、在线身份认证等多种应用场景,充分满足各行业客户的人脸属性识别及用户身份确认等需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档