一直在担心AI失控,却没担心到正地方

当我们一直在讨论AI能给互联网安全带来什么影响的时候,可能一直都忽略了一个问题:AI本身也不安全。

这两天的新闻恰如其分地提醒了我们这一点。近日,谷歌被爆其机器学习框架TensorFlow中存在的严重安全风险,可被黑客用来制造安全威胁,谷歌方面已经确认了该漏洞并做出了整改回应。

虽然是提前发现,这些漏洞本身没有带来实质威胁。但这条消息还是让我们看到了某种蠢蠢欲动的不安。TensorFlow、Torch、Caffe这些机器学习开发框架,差不多是如今AI开发者与研究者的标准配置,但这些平台最近却纷纷被爆出存在安全漏洞和被黑客利用的可能性。

某种意义上来说,这些消息在提醒我们同一个问题:当我们急切的将资金与用户关系聚集在机器学习周围时,也可能是将巨大的危险捆绑在了身上。

更重要的是,面临AI安全问题,我们中的大部分人还处在很傻很天真的“懵懂状态”,对它的逻辑和危害性近乎一无所知。

本文希望来科普一下这些内容,毕竟防患于未然,等到真正出现大事件再惊叹也就晚了。另外必须提醒开发者和企业的是,在谷歌这些大公司不遗余力的推广自家机器学习平台,并且为了吸引使用者而快速迭代、大量发布免费资源时,开发者本身一定要留个心眼,不能不假思索的使用。

比起心血毁于一旦,更多的审查机制和更严密的安全服务是非常值得的。

相比于经典计算的信息存储与交互模式,人工智能,尤其是机器学习类任务,最大的改变之一就是展现出了信息处理的整体性和聚合性。比如著名AlphaGo,它不是对每种棋路给出固定的应对模式,而是对棋局进行预判和自我推理。它的智慧不是若干信息组成的集合,而是一个完整的“能力”。

这是AI的优点,但很可能也是AI的弱点。试想,假如AlphaGo中的某个训练模型被黑客攻击了,比如让系统在该打吃的时候偏偏就不。那么最终展现出的将不是某个棋招运算失当,而是干脆一盘棋也赢不了。

说白了,AI注定是一个牵一发动全身的东西,所以平台漏洞带来的安全风险才格外可怕。

由于AI系统紧密而复杂的连接关系,很多关键应用将从属于后端的AI体系,而这个体系又依赖平台提供的训练模型。那么一旦最后端的平台失守,几乎必然引发规模化、连锁式的崩盘——这或许才是我们今天最应该担心的AI失控。

AI产业的风险,在于某个黑客一旦攻克了机器学习平台的底层漏洞,就相当于把整个大厦的最下一层给炸掉。这个逻辑此前很少被人关注,却已经被证明了其可能性存在。而最可怕的是,面对更多未知的漏洞和危险,世界范围内的AI开发者近乎是束手无策的。

总之,AI本身的安全防护,已经成为了开发者必须在意、大平台需要承担责任、国家竞争需要争抢的一个环节。希望最终一起人为的AI失控事件都不要到来。毕竟吃一堑长一智的事情在互联网历史上已经发生太多了。

希望这次我们可以预见危险,而不是痛而后悟吧。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171231A0M0XF00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。

扫码关注云+社区

领取腾讯云代金券

年度创作总结 领取年终奖励