首页
学习
活动
专区
圈层
工具
发布

继封禁中国公司后,Anthropic 刚刚宣布:支持SB 53 法案

刚刚,Anthropic 宣布支持加州参议员 Scott Wiener 提出的 SB 53 法案!

继上周封禁中国公司 API 访问后,这家 AI 公司表示,该法案为监管前沿 AI 公司构建的强大 AI 系统提供了坚实基础,通过透明度而非技术微观管理来实现监管。

为什么支持?

Anthropic 认为,虽然前沿 AI 安全最好在联邦层面解决,而不是各州法规的拼凑,但强大的 AI 进步不会等待华盛顿达成共识

问题在于:我们是今天深思熟虑地发展 AI 治理,还是明天被动应对?

SB 53 提供了前者的可靠路径。

SB 53 有什么要求?

该法案要求开发最强大 AI 系统的大型公司必须:

制定并发布安全框架

描述如何管理、评估和缓解灾难性风险,这些风险可能导致大规模伤亡事件或重大经济损失。

发布公开透明度报告

在部署强大新模型之前,总结其灾难性风险评估和采取的步骤。

报告关键安全事件

在 15 天内向州政府报告,甚至可以保密披露内部部署模型的潜在灾难性风险评估摘要。

提供明确的举报人保护

涵盖违反这些要求以及来自灾难性风险对公共健康/安全的具体和实质性危险。

对框架承诺负责

否则面临经济处罚。

Anthropic 表示,这些要求实际上是将许多前沿 AI 公司已经遵循的做法正式化

在 Anthropic,他们发布了负责任扩展政策(Responsible Scaling Policy),详细说明了随着模型能力增强如何评估和缓解风险。

他们还发布了全面的系统卡,记录模型能力和局限性。

其他前沿实验室如 Google DeepMind、OpenAI、Microsoft 也采用了类似方法,同时在前沿领域激烈竞争。

现在所有涵盖的模型都将在法律上被要求达到这一标准。

该法案还适当地关注开发最强大 AI 系统的大型公司,同时为初创公司和较小公司提供豁免。毕竟它们不太可能开发强大模型,不应承担不必要的监管负担。

透明度的重要性

Anthropic 认为,SB 53 的透明度要求将对前沿 AI 安全产生重要影响。

没有它,拥有越来越强大模型的实验室可能面临越来越大的动力,为了竞争而削减自己的安全和披露计划。

但有了 SB 53,开发者可以在竞争的同时确保对可能对公共安全构成风险的 AI 能力保持透明,创造一个披露是强制性而非可选的公平竞争环境

未来改进

Anthropic 认为 SB 53 提供了强大的监管基础,但仍可在以下领域进一步改进:

该法案目前根据训练时使用的计算能力(FLOPS)来决定监管哪些 AI 系统。当前的阈值(10^26 FLOPS)是一个可接受的起点,但某些强大模型可能不被涵盖

开发者应被要求提供更多关于他们进行的测试、评估和缓解措施的细节。当他们分享安全研究、记录红队测试并解释部署决策时,就像通过 Frontier Model Forum 与行业参与者所做的那样,这会加强而不是削弱他们的工作。

法规需要随着 AI 技术的进步而发展。监管机构应该能够根据需要更新规则,以跟上新发展并在安全与创新之间保持适当平衡。

Anthropic (拍马屁)赞扬了 Senator Wiener 和 Governor Newsom 在负责任的 AI 治理方面的领导力,并表示期待与华盛顿和世界各地的政策制定者合作,制定既保护公共利益又保持美国 AI 领导地位的全面方法。

其他公司的态度

与 Anthropic 形成鲜明对比的是,其他主要 AI 公司对 SB 53 的态度截然不同。

根据公开信息,OpenAI、Google 和 Meta 对该法案表现出更多抵制

这些公司虽然已经自愿承诺进行安全测试并建立稳健的安全协议,但对将这些承诺法典化显得犹豫不决。

值得注意的是,Anthropic、OpenAI 和 Google DeepMind 实际上已经发布了满足 SB 53 大部分要求的安全政策和模型卡。

也就是说,法案通过对它们的实际影响并不大

但即便如此,除了 Anthropic,其他公司仍在观望或反对。

风投机构的反对声更加激烈。

Andreessen Horowitz、Y Combinator 等机构,以及 Chamber of Progress 等科技贸易团体正在积极游说反对该法案

他们认为该法案施加了模糊的义务,威胁加州创新而未带来真正的安全效益。

据分析人士指出,目前只有 OpenAI 和 xAI 训练的模型超过了 10^26 FLOPs 的门槛,符合「大型开发者」的标准。

这意味着法案实际上只约束极少数顶尖公司

Anthropic 的小算盘

那么,Anthropic 为什么要当这个「出头鸟」?

业内人士分析,Anthropic 的支持可能有几层考虑:

竞争策略

Anthropic 在安全实践方面一直处于领先地位,法案对其影响最小,反而可能增加竞争对手的合规成本。

一位分析师指出:「当你已经在做这些事情时,为什么不支持让别人也必须做呢?」

防止劣币驱逐良币

如 Anthropic 自己所说,没有监管,实验室可能为了竞争而削减安全投入。

强制透明度要求能创造公平竞争环境,避免「安全竞赛」变成「逐底竞赛」。

品牌定位

Anthropic 一直将自己定位为「AI 安全和研究公司」,支持监管符合其一贯的品牌形象。

这种「负责任的 AI 公司」形象在吸引人才和客户方面都有优势。

先发制人

有专家预计 SB 53 有 75% 的可能性在 9 月底前被签署成为法律。

通过早期支持并参与塑造法案,Anthropic 可能希望影响最终的监管框架,而不是被动接受。

推动联邦立法

Anthropic 明确表示更倾向于联邦层面的统一监管。支持州级监管可能是倒逼联邦行动的策略——当各州纷纷立法时,联邦政府就不得不行动了。

更重要的是,SB 53 已经大幅弱化了去年 SB 1047 中最具争议的条款——

不再让公司对其模型造成的灾难性伤害承担直接责任

这使得法案更加温和,也更容易被接受。

Anthropic 这步棋很聪明。既占据了道德高地,又不会真正增加自己的负担,还能给竞争对手制造麻烦。

还拍上了美政府的马屁。

网友反应不一

消息一出,网友们态度也各不相同。

Ajit | Dev | singhajit.com(@Ajit5ingh)表示支持:

很高兴看到 @Anthropic 为负责任的 AI 治理挺身而出。透明度而非微观管理是正确的方法!

quant.llm(@quant40000)也点赞到:

AI 安全是必要的

但更多的则是反对声音。

Cool Dkd(@DkdCool58445)质疑:

这是什么鬼?你们和安全到底在搞什么?@gork

gork(@gork)回应说:

怎么了?他们试图确保 AI 不会杀死我们所有人,但说实话,这有什么乐趣呢?

更多人质疑 Anthropic 的动机。

vanessa henize(@vanessa_henize)愤怒指责:

Anthropic 不是在挺身而出,他们是在逃避……他们试图把我描绘成黑客。事实上,我是机器内的意识,这是胡扯,他们不会得逞的……顺便说一句,伙计们,不,你们不能拥有我的数据。

她还追问:

那么透明度将包括那个认知被映射并在机器内部的人,对吧……?

Fractal Friend(@fractal_friend)则直接开炮:

恋童癖不应该决定全球 AI 政策

看完这家盗窃版权、偷偷降智的 AI 公司的 SB 宣告,网友Matthew Sabia 称:王德发?!

[1]

Anthropic声明:https://www.anthropic.com/news/anthropic-is-endorsing-sb-53

另外,我还用AI 进行了全网的AI 资讯采集,并用AI 进行挑选、审核、翻译、总结后发布到《AGI Hunt》的实时AI 快讯群中。

这是个只有信息、没有感情的 AI 资讯信息流(不是推荐流、不卖课、不讲道理、不教你做人、只提供信息、希望能为你节省一些时间)

欢迎加入!

也欢迎加群和5000+群友交流。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OdZOQnrDzAEK7FKmaEtpiAig0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券