网络安全专家Bruce Schnieier写了一篇很好的文章,解释人工智能的发展是如何彻底地改变计算机系统的攻防力量平衡:
“人工智能技术可能改变攻击相对于互联网安全所具备的优势。这跟人类和计算机相想对的优势和劣势有关系,这些优势和劣势是如何影响互联网安全的,以及AI技术将会改变哪些事情?”
主要区别:人类可以跳出框架进行思考——但是我们很容易就会感觉到厌倦。同时,计算机擅长于重复的枯燥的任务,但是在判定或创造很重要时,表现不佳。
“你可以把网络安全任务划分成两个部分:人类擅长的地方和计算机擅长的地方。传统上来说,计算机擅长于速度,规模和范围。他们可以在几毫秒内发起攻击并感染上百万台电脑。他们可以扫描计算机代码寻找特定种类的漏洞,以及通过数据包识别特定类型的攻击。
与此相反,人类善于思考和推理。人类可以查看数据,还可以区分真正的攻击和错误的警报,了解攻击发生的情况,并做出响应。他们可以在系统中找到新的脆弱点。人类是具有创造性和适应性,还可以理解上下文。
计算机在人类擅长的方面是很弱势的。他们既不具有创造性也不具有适应性。它们也不能够理解语境。因此计算机的表现是非理性的。”
关于人类和计算机的区别的最好的例证是由1983年苏联核误报事件,有些人认为这是美国和苏联最接近核冲突的时候(比古巴核导弹危机更接近核冲突):
“在1983年9月26日,苏联防空部队的陆军中校Stanislav Petrov,在莫斯科附近安置了苏联早期预警卫星指挥中心serpukhov-15地堡担任值班军官,代号为Oko。Petrov的责任包括观察卫星预警网络并通知他的上级任何可能发生的针对苏联的核导弹攻击。如果收到来自卫星预警系统的警告,表示检测到了入境的导弹,苏联的策略是立即的强制性的核反击,该反击针对确保共同毁灭原则指定的美国。
午夜过后不久,地堡的计算机警报有一枚来自美国的洲际导弹朝苏联飞过来。Petrov怀疑警报系统有故障,实际上并没有导弹过来。之后计算机发现空中有另外四枚导弹,从各个方向朝苏联发射过来。尽管没有直接证据可以证明计算机出现故障,但是Petrov认为计算机又出现了错误。苏联的陆地雷达没有检测到超越地平线的导弹,二等待雷达识别出可能的威胁会吧是苏联的反应时间限制在几分钟内。
之后确定这个错误的警报是由高空云层和卫星轨道上罕见的阳光排列引起的,之后通过地球同步卫星的交叉引用来改正错误。”
根据所有的技术指示,他应该下令进行核打击。如果把这个决定权交给计算机,计算机将会做什么是毫无疑问的:发射导弹。为什么不呢?计算机会根据它最好的信息工作。
但是Petrov作为人类,他能够理解语境:
“在解释导致他做出决断的因素时,Petrov引用了他的信条和经验,那就是美国的第一次打击都会是大规模的,所以首次攻击只有五枚导弹看起来是不和逻辑的。此外,地面雷达系统即使在误报几分钟后,也没能检测到确凿的证据。所以在Petrov看来,全新的发射探测系统是不值得信赖的。”
计算机的不足之处是:理解语境并做出判断。这也是网络安全权力平衡倾向于犯罪的原因,网络犯罪往往是粗暴的。一台恶意计算机可以一整天都用来爆破密码同时发送数百万的垃圾邮件。另一方面,网络防御需要考虑周到,具有创造性并能够理解语境,而这不是计算机的强项。
通过发展AI可能会改变这些。Schneier接着讨论了如下可能性。
“AI会使计算机从人类手中接管有关互联网安全任务,然后比人类更快,更大规模的完成这些任务。这些都是AI可能具有的能力:
l 发现脆弱点,更重要的是发现系统中新的脆弱点,通过攻击利用脆弱点并通过防御修补脆弱点,然后自动发或修补这些脆弱点。
l 在进攻和防守两个方面都要适应对手的行为并做出相应的反应。这包括对行为的推理并理解这些行为在攻击环境中的含义。
l 从个别事件中吸取教训,在系统和网络上推广这些经验教训,并把这些经验应用到其他地方提高攻击和防御效能。
l 从大型数据库中识别战略和战术趋势,并利用这些趋势来适应攻击和防御战术。
这是一个不完整的清单。我不认为有人能够预测出将来AI技术会是什么样子。但是,仅从计算机的速度,规模和范围三个方面来看,看看人类今天在做什么,并设想未来AI会做同样的事情,这种想法是合理的。”
预测技术的发展方向是出了名的困难。Schneier承认,只有少量甚至没有预测会成为真的。但底线是:如果电脑能在那些人类擅长的地方超越人类,比如创造力、判断力、理解语境能力,那么希望利用攻防力量不平衡的网络罪犯分子,就会发现自己处在一个全新的游戏当中。
领取专属 10元无门槛券
私享最新 技术干货