首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌将生成人工智能引入网络安全

生成 AI 领域出现了一种新趋势——用于网络安全的生成 AI——而谷歌是那些希望进入底层的人之一。

在今天的 RSA 2023 大会上,谷歌宣布了Cloud Security AI Workbench,这是一个网络安全套件,由名为 Sec-PaLM 的专门“安全”AI 语言模型提供支持。作为谷歌PaLM模型的一个分支,Sec-PaLM 是“针对安全用例进行了微调”,谷歌表示——结合了安全情报,例如对软件漏洞、恶意软件、威胁指标和行为威胁参与者概况的研究。

Cloud Security AI Workbench 涵盖了一系列新的人工智能工具,例如 Mandiant 的威胁情报 AI,它将利用 Sec-PaLM 来查找、总结和应对安全威胁。(回想一下,谷歌在 2022 年以 54 亿美元收购了Mandiant。)谷歌的另一项资产 VirusTotal 将使用 Sec-PaLM 帮助订阅者分析和解释恶意脚本的行为。

在其他地方,Sec-PaLM 将协助 Google 的云网络安全服务 Chronicle 的客户搜索安全事件并“保守地”与结果进行交互。与此同时,谷歌安全指挥中心 AI 的用户将获得由 Sec-PaLM 提供的“人类可读”的攻击暴露说明,包括受影响的资产、建议的缓解措施以及安全、合规和隐私调查结果的风险摘要。

“虽然生成式人工智能最近引起了人们的注意,但 Sec-PaLM 是基于谷歌和 DeepMind 多年的基础人工智能研究,以及我们安全团队的深厚专业知识,”谷歌今天早上在一篇博客文章中写道。“我们才刚刚开始意识到将生成式 AI 应用于安全的力量,我们期待继续为我们的客户利用这种专业知识,并推动整个安全社区的进步。”

这些都是相当大胆的雄心壮志,特别是考虑到 VirusTotal Code Insight,Cloud Security AI Workbench 中的第一个工具,目前仅提供有限的预览版。(谷歌表示,它计划在未来几个月内向“受信任的测试人员”推出其余产品。)坦率地说,尚不清楚 Sec-PaLM 在实践中的效果如何——或不起作用。当然,“建议的缓解措施和风险总结”听起来很有用,但这些建议是否因为人工智能模型产生的建议而更好或更精确?

毕竟,人工智能语言模型——无论多么先进——都会出错。而且它们很容易受到prompt injection等攻击,这可能导致它们以其创建者不希望的方式行事。

当然,这并不能阻止科技巨头。3 月,微软推出了Security Copilot,这是一种新工具,旨在使用来自 OpenAI 的生成 AI 模型(包括GPT-4) “总结”和“理解”威胁情报。在新闻材料中,微软——类似于谷歌——声称生成人工智能可以更好地装备安全专业人员来应对新的威胁。

陪审团对此非常关注。事实上,用于网络安全的生成式 AI 可能比任何东西都更加炒作——缺乏对其有效性的研究。运气好的话我们很快就会看到结果,但与此同时,对谷歌和微软的说法持保留态度。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230425A01HFL00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券