首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

1.0版《框架》公开,人工智能安全治理有了指引

人工智能是人类发展新领域,给世界带来巨大机遇,也带来了各类风险挑战。9月9日,全国网络安全标准化技术委员会制定的《人工智能安全治理框架》1.0版(以下简称《框架》),对外公开发布。《框架》将人工智能安全风险按内生安全和应用安全分类,并给出相应的技术应对措施。围绕“鼓励创新,对人工智能研发及应用采取包容态度”“快速动态精准调整治理措施”“明确主体安全责任”“共享最佳实践”的原则,《框架》推动各方就人工智能安全治理达成共识,促进人工智能安全有序发展。

《框架》提出,人工智能系统设计、研发、训练、测试、部署、使用、维护等生命周期各环节都面临安全风险,既面临自身技术缺陷、不足带来的风险,也面临不当使用、滥用甚至恶意利用带来的安全风险。

其中人工智能内生安全风险包括模型算法安全风险、数据安全风险、系统安全风险,人工智能应用安全风险包括网络域安全风险、现实域安全风险、认知域安全风险和伦理域安全风险。

上述风险中模型算法安全风险的篇幅最长,共细化成六方面:可解释性差;偏见、歧视;鲁棒性弱;被窃取、篡改;输出不可靠;对坑攻击。以排在第一位的可解释性差为例,此风险是指以深度学习为代表的人工智能算法内部运行逻辑复杂,推理过程属黑灰盒模式,可能导致输出结果难以预测和确切归因,如有异常难以快速修正和溯源追责。

针对此类风险,《框架》指出要不断提高人工智能可解释性、可预测性,为人工智能系统内部构造、推理逻辑、技术接口、输出结果提供明确说明,正确反映人工智能系统产生结果的过程。在设计、研发、部署、维护过程中建立并实践安全开发规范,尽可能消除模型算法存在的安全缺陷、歧视性倾向,提高鲁棒性。

让大模型给出的结果更精准,是大模型落地到企业端的基础,可见治理此类风险对整个行业的重要性。

在和北京商报记者交流时,枫清科技创始人兼CEO高雪峰表示,大模型在企业落地时,会遇到一系列问题,主要是因为大模型自身的局限性、黑箱问题以及数据或者知识的问题,“由于大模型的复杂性过高,涉及大量参数和层,使得可解释性变得更加困难,推理过程不透明,往往是基于大量参数网络的序列预测。大模型生成内容的逻辑与依据很难给出相应的解释,或者是其内容生成的概率分布,人们无法理解,即使是专业研究人员也很难理解模型是如何得出某个结论的,普通用户更难以理解模型为什么输出这样的内容”,高雪峰详细说。

全国网络安全标准化技术委员会秘书处主要负责人表示,《框架》的发布,对推动社会各方积极参与、协同推进人工智能安全治理具有重要促进作用,为培育安全、可靠、公平、透明的人工智能技术研发和应用生态,促进人工智能的健康发展和规范应用,提供了基础性、框架性技术指南。同时,也有助于在全球范围推动人工智能安全治理国际合作,推动形成具有广泛共识的全球人工智能治理体系,确保人工智能技术造福于人类。

北京商报记者 魏蔚

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Ob2B4i59tq3kEPhWvob74RNA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券