前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >当AI试图成为黑客,画风竟然完全不同于人类?丨科技云·视角

当AI试图成为黑客,画风竟然完全不同于人类?丨科技云·视角

作者头像
科技云报道
发布2022-04-14 16:39:53
3740
发布2022-04-14 16:39:53
举报
文章被收录于专栏:科技云报道

网络安全一直以来是人类智慧和经验高度凝结的领域,也是很多科幻电影中人类对抗外星种族或邪恶机器最后的防线。当有一天人工智能开始获得了人类黑客的行为方式后会发生什么?

谷歌的机器学习系统最近创建了属于自己的加密算法,这是AI在网络安全中获得的最新成功。

据New Scientist报道,谷歌机器学习研发部门Google Brain不久前成功通过三个神经网络之间的相互攻击,成功让系统创建了属于自己的算法。

名为Bob和Alice的两个神经系统会向彼此收发消息,而第三个神经系统Eve则会试图窃取并解码消息。没人告诉它们如何加密信息,但Bob和Alice自行开发出共享的安全密匙,让Eve无法访问具体内容。

在大多数测试中,Bob与Alice可以很快找出安全的通讯方式,让Eve无法破译密码。有趣的是,这些神经系统使用了一些特别的方法,在我们人类开发的加密系统中很少出现。这些方法很有可能比人类所设计的最好方法还要复杂,但由于神经网络会以不透明的方式来解决问题,很难破解他们的具体运作方式。

这提出了一系列的问题:人类破译AI生成的加密到底有多难呢,而由AI加密的这种系统到底有多安全?AI为人类带来的是更安全的网络,还是令网络安全问题变得更加复杂?

AI显著提升网络安全运维效率

虽然Eve的表现似乎证明了神经系统并不擅长破译加密信息,但研究人员表示,神经网络在理解通信元数据方面和计算机网络流量分析上相当有效。许多人认为机器学习在这些领域上可为网络安全作出贡献,因为现代AI很擅长发现模式,而且跟人类相比,AI还可以处理更多的数据。

在执行层,AI可以显著提升安全工具的规则运维效率。规则体系的触角在整个安全网络体系里面的延伸非常广泛,包括像杀毒、WAF、反SPAM、反欺诈等。

这些领域在传统模式中需要大量的人力来维护,比如像反欺诈系统里面可能有上千条规则,这些规则之间存在着很多的冲突,某些规则组合甚至超出了人的理解能力,人在维护这些规则的时候也常常会出现问题。

而依靠AI,就可以很好的解决这些情况,机器学习已经展示出非常强大的价值。它可以自动生成规则,不用依靠庞大的人力资源来维护。

安全事件通常是大量发生的,借助AI的强大计算能力,可以实时处理数以百万计的数据点,同时生成预测,所以AI能够比较好的识别判断下一次事件,帮助企业和网络保险公司获得最精确的网络风险评估

除此之外,检测异常流量对安全公司来说也是个巨大的挑战,因为每家公司都有不同的流量消耗方式。不过,通过寻找跨协议相关性,不依赖侵入性的深度数据包检查,分析内外部网络流量中无穷无尽的元数据相关性,AI技术就能检查异常网络流量。

智能化的网络安全道路且长

网络安全是一个非常复杂的体系,现在AI已经可以在执行层有不错的应用,但是想让AI学习一个高水平的白帽黑客,将AI应用于网络安全任务层和战略层,还在向智能化的方向摸索。

比如最著名的就是DARPA主办的CGC大赛,比赛让7个顶级团队构建自动化系统,对有缺陷的服务程序做自动加固,然后相互攻击,不仅要抵抗外来攻击,同时还要反击对手。但是,所有的逻辑都是人预先设定好的,也就是说,目前仍然停留在自动化阶段。

在感知层,人脸认证是AI在安全领域最成功的一个应用,然而谷歌的研究员已经在研究中发现攻击者可以欺骗AI系统,让它们以为自己看到了别的东西。

比如对一张大象照片里面的某些像素做改动以后,就可以让神经网络把它识别成一辆汽车。当神经网络用在安防摄像头中的时候,这就会成为实实在在的麻烦。根据研究员们所说,在脸上画几个记号就可以让摄像头以为你是别的人。

因此,要实现顺滑的人脸认证体验,必须要有AI技术和系统化安全技术做全面支撑,以避免攻击者和其它怀有恶意的人发现系统中的漏洞。

更为恐怖的是,随着利用物联网发动DDoS攻击日益猖獗,黑客可以对任何企业或个人发动攻击。

据思科预测,到2020年全球联网设备数量将从今天的150亿部上升到500亿部。由于受到软硬件资源限制,许多联网设备都不具备基本的安全防护措施。越来越多的智能设备连接入网,意味着潜在的攻击点也被扩大了,网络安全成为这个时代最大的问题之一。

因此,AI时代的防御机制已经演变成一个“云-管-端”的体系。云,就是大数据,可以认为是这个防御体系的大脑;管,就是管道,也就是网络边界;端,就是端点。利用云的存储和计算能力,再应用一些人工智能的算法来处理。

当网络服务、安全设备和机器人都开始用上AI技术以后,这些担忧的确无法忽视。AI相关技术的运用可能会成为被攻击的点或者攻击手段。但是反过来说,这些新技术也能作为新的防御手段。

对此,DeepMind 的AI安全研究负责人Shane Legg给出了他的看法:“AI发展得这么快,未来到底怎么样还很难说。这些技术可能被滥用、被攻破的方式有很多,负责任的做法就是要尝试理解这些方法,并且设计各种解决方法。”

虽然AI在安全方面多数的研究还是理论性的,但从AI技术的飞速发展和在许多工业应用中越来越重要的地位看来,相关研究还是开始得越早越好。

随着网络安全日益成为AI之间的战争,我们应该尽早开始思考这些问题的答案。毕竟,AI的操作方式会变得越来越难以捉摸,我们可能会不知道它们到底是我们的朋友还是敌人。

【科技云报道原创】

转载请注明“科技云报道”并附本文链接

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2017-08-18,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 科技云报到 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档