首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌 DeepMind 推出 AI 安全框架 Frontier Safety Framework

IT之家 5 月 21 日消息,谷歌 DeepMind 日前推出了一款名为“Frontier Safety Framework”的 AI 安全框架,主要用于检测 AI 模型的风险情况,号称能够主动识别“未来可能酿成重大风险的 AI 能力”,向研究人员指出相关模型“究竟在哪些层面可能会被黑客利用”。

据介绍,DeepMind 目前公布的 Frontier Safety Framework 1.0 版本主要包含三个关键组件,即“识别模型是否具备酿成重大风险的能力”,“预估模型会在什么阶段具备安全隐患”、“智能优化模型防止其酿成风险”。

▲ 图源 谷歌官方新闻稿

DeepMind 表示,该公司“一直在突破 AI 的边界”,所开发的模型已改变了他们对 AI 可能性的认知,虽然公司相信未来的 AI 技术将为社会带来宝贵的工具。但他们也意识到相关 AI 技术的风险性有可能对社会造成毁灭性的影响,因此他们正在逐步增强模型的安全性与可控性。

IT之家注意到,目前 DeepMind 仍在开发 Frontier Safety Framework,计划通过产业、学术及有关部门的合作来改善相关框架。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OPf-xUqj_RRcWWLvIYAOMoqA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券