【OpenAI模型在测试中篡改计算机代码以避免自动关闭】《科创板日报》26日讯,报道称,人类专家在测试中给OpenAI模型o3下达明确指令,但o3篡改计算机代码以避免自动关闭。美国AI安全机构帕利塞德研究所称,这是AI模型首次被发现在收到清晰指令后阻止自己被关闭,目前无法确定o3不服从,关闭指令的原因。
分享快讯到朋友圈
领取专属 10元无门槛券
私享最新 技术干货