首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

OpenAI成立新安全监督团队,并开始训练新模型

鞭牛士报道,5月28日消息,据外电报道,OpenAI 周二表示,在 5 月中旬解散了之前的监督委员会后,它成立了一个由高管领导的安全委员会。

该公司表示,新委员会将负责向 OpenAI 董事会推荐有关 OpenAI 项目和运营的关键安全决策。

新委员会成立的消息传出之际,ChatGPT虚拟助手的开发商宣布已开始训练其下一个前沿模型。

该公司在一篇博客文章中表示,预计最终的系统将使我们在通往 AGI(通用人工智能)的道路上迈向更高水平的能力,AGI 是一种与人类一样聪明甚至更聪明的人工智能。

据博客文章称,除了奥特曼之外,安全委员会还将包括布雷特·泰勒、亚当·德安杰洛和妮可·塞利格曼,他们都是 OpenAI 董事会成员。

在成立新的监督团队之前, OpenAI 解散了之前专注于人工智能长期风险的团队。在此之前,两位团队负责人——OpenAI 联合创始人 Ilya Sutskever 和关键研究员 Jan Leike均宣布离开这家微软支持的初创公司。

雷克本月早些时候写道,OpenAI 的安全文化和流程已经让位于闪亮的产品。针对雷克的离职,奥尔特曼在社交媒体平台 X 上表示,他对雷克的离开感到难过,并补充说 OpenAI还有很多事情要做。

博客文章称,在接下来的 90 天内,安全小组将评估 OpenAI 的流程和保障措施,并与公司董事会分享他们的建议。OpenAI 将在稍后提供有关其采纳建议的最新消息。

随着 ChatGPT 等应用所依赖的庞大模型变得越来越先进,人工智能安全已成为更大争论的焦点。人工智能产品开发人员还想知道 AGI 何时会到来,以及它会带来哪些风险。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/Oj1vlfFVw_HTnFjqD657QkfA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券