首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

重塑安全边界:AI系统安全与传统安全措施的深度对比

如今,人工智能(AI)已成为推动社会进步和技术革新的关键力量。今年随着ChatGPT的出圈,国内外再度掀起了一波AI热浪,AI应用正快速渗入到我们日常生活和工作的方方面面。随着这些技术的普及和发展,AI安全问题也需要我们足够多的关注。AI系统和应用可能面临包括数据泄露、恶意攻击、误导性决策等在内的种种风险,这些风险不仅威胁到技术系统的安全,还可能对个人隐私和社会稳定造成影响。因此,我们需要更好地理解和保护AI安全。

人工智能安全确实是一个新的安全领域,但对AI安全的研究并不代表以前传统安全的终结,以前传统系统安全的研究思路和经验在现在AI安全研究中依然适用,因为攻防思维和格局并没有发生颠覆性的变化。传统的安全性原则依然可以用于人工智能系统,比如访问控制、威胁检测、数据安全等。相比而言,一个主要的变化是人工智能系统可能会引入传统系统中不存在的新的安全风险,例如,一些人工智能系统更容易被对抗性示例所愚弄,这些示例是精心设计的输入,可能会导致人工智能系统做出错误的预测。所以,深入了解AI系统安全和传统系统安全的异同对于我们在该领域的后续工作开展具有非常高的价值。Google在最近发布了其对AI安全最新的见解《Securing AI: Similar or Different?》,笔者在本文对次进行介绍和解读。

人工智能系统安全和传统系统安全

1、治理

安全治理可以从不同的角度来入手,但对于人工智能安全我们应该更多关注数据和代码(模型)相关。当我们进行数据存储时,类似数据回溯、数据源、准确性、所有权和完整性等方面虽然重要,但或许并不至关重要。但当你用这些数据来训练AI,并且其目的是做出决策、编写代码和进行交流时,风险就大幅上升。

2、威胁

3、应用/产品安全

4、数据安全和隐私5、网络和终端安全6、威胁检测和响应7、安全评估和验证安全建议

治理:在AI生命周期的整个过程中实施强有力的治理和安全控制。同时,了解并记录随着时间发展而出现的管辖区法规。

清单:了解组织中使用的AI系统。这包括了解它们如何工作,它们使用什么数据,以及它们如何被员工或客户使用。对AI系统了解得越多,就越能够识别和减轻安全风险。

数据安全:为数据收集、数据存储、数据处理和数据使用以及相关代码和模型实施强有力的安全控制。

安全软件开发:使用安全的开发实践。这包括代码审查、威胁建模和渗透测试等实践。SDLC实践必须同时适用于代码和数据。

教育:教育用户了解安全风险(这包括AI系统的用户、开发者和操作者)。教育更多的AI系统设计师关于威胁建模和其他安全实践。

安全部署:启用一套工具和流程来过滤和记录输入(例如GenAI的提示)和输出,控制访问,并提供企业级安全控制。

威胁检测和响应:监控AI系统的安全威胁,包括使用安全工具监控恶意活动。生成模型的输出需要被监控:不仅是其部署状态,还有可能表明妥协的输出内容。

测试:使用安全和AI专家启动“AI红队”计划。

政策:如果你不开发AI系统,只是使用它们,为AI创建一个可接受的使用政策(AUP),包括GenAI。

事件响应:迅速有效地响应安全事件。这包括制定响应涉及AI系统的安全事件的计划。

总结

总体而言,AI系统引入了传统系统中不存在的新安全风险。意识到这些风险并采取措施来减轻它们是非常重要的。

通过理解保护传统企业软件系统和AI系统之间的差异,组织可以开发出更全面的安全策略,以保护他们的AI系统免受各种安全威胁。有可能的话,AI带来的潜在危害可能是成倍增加的——这是全球监管机构关注偏见评估和可解释性的原因之一。

参考链接

(1)Securing AI: Similar or Different?

https://services.google.com/fh/files/misc/ociso_securing_ai_different_similar.pdf

  • 发表于:
  • 原文链接https://page.om.qq.com/page/ONorEUYDWJFJvmx2CeSmt35A0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券