
来源:OpenAI 官方模型文档 developers.openai.com/api/docs/models,2026-03-04
昨天,OpenAI 悄悄上线了 GPT-5.3 Instant。
没有博客发布,没有新闻稿。直接出现在模型文档里,然后被人发现,上了 Hacker News 热榜。
如果你第一反应是"哦,又出新模型了,我要不要换"——稍等一下,这次和你想的不太一样。
打开 OpenAI 官方模型页,找到 GPT-5.3 Chat,描述是这样写的:
"GPT-5.3 Instant model used in ChatGPT"
再往下翻,看到一句话:
"We recommend GPT-5.2 for API usage"
说人话就是:GPT-5.3 Instant 是 ChatGPT 客户端在跑的版本,OpenAI 专门把它放到 API 里让你测试,但主力推荐还是 GPT-5.2。
这不是一次"新旗舰发布",是一次"透明化"。
OpenAI 在告诉你:你在 ChatGPT 上聊天的时候,背后跑的是这个模型。
我整理了 GPT-5.3 Chat 和 GPT-5.2 的关键数据:
参数 | GPT-5.3 Chat | GPT-5.2 |
|---|---|---|
定位 | ChatGPT 专用 Instant | API 主力旗舰 |
上下文窗口 | 128,000 tokens | 400,000 tokens |
最大输出 | 16,384 tokens | 128,000 tokens |
输入定价 | $1.75/M tokens | $1.75/M tokens |
输出定价 | $14.00/M tokens | $14.00/M tokens |
推理能力 | 无专门推理 | 支持可调推理强度 |
知识截止 | 2025年8月31日 | 2025年8月31日 |
来源:GPT-5.3 Chat 文档,GPT-5.2 文档
定价一样,但 GPT-5.2 的上下文窗口是 GPT-5.3 Chat 的 3 倍多,输出上限是 8 倍。
从这里能看出来,GPT-5.3 Instant 设计的时候优先考虑的是"快",不是"容量大"。ChatGPT 的场景是多轮聊天,大多数对话不需要 400k 上下文。但如果你在开发 AI Agent 或者处理长文档,5.2 更合适。
说实话,OpenAI 的模型家族现在有点多。我整理了一下:
GPT-5.x 聊天系列(从官方文档看):
GPT-5.x Codex 编程系列:
其他系列:
来源:OpenAI API 模型页
这个阵容说明 OpenAI 已经不是在"发布模型"了,而是在运营一条持续迭代的模型产品线。每隔一段时间,某个位置的模型就安静地升级。
"Instant"这个词值得注意。
GPT-5.3 的全名是 GPT-5.3 Instant,说明这是一个以速度为第一优先级的版本。OpenAI 历来对 ChatGPT 有个特殊要求:响应要快,延迟要低,用户才不会烦。
所以可以合理猜测,GPT-5.3 在某些对话场景的速度比 GPT-5.2 要快,但为了换取速度,上下文窗口和输出上限都压缩了。
这和 GPT-4.1 系列当时发布 GPT-4.1 nano 的逻辑类似。GPT-4.1 发布博文 当时明确说:nano 是"最快最便宜的模型",适合分类和自动补全这类任务。GPT-5.3 Instant 对 ChatGPT 的意义大概也是这个。
不过要说清楚:我没有看到 OpenAI 公开 GPT-5.3 的详细 benchmark 数据。上面的猜测是基于产品定位推断的,不是实测结论。
说实话,大多数人不用纠结这个问题。
普通用户(ChatGPT):你已经在用 GPT-5.3 Instant 了,不用做任何事情。
API 开发者:
定价参考:GPT-5 mini 输入 0.25/M,GPT-5.2 和 GPT-5.3 Chat 都是 1.75/M。
来源:OpenAI 定价页
过去两年,OpenAI 的发布节奏从"大版本发布+博客轰炸"变成了"静默上线+文档更新"。GPT-5.3 这次就是后者。
这一方面说明迭代速度变快了。另一方面也说明不是每次更新都值得制造噪音。
对普通用户来说,这是好事。ChatGPT 自己会换,你不需要追着每个版本跑。
对开发者来说,需要主动关注文档变化,因为不是每次升级 OpenAI 都会通知你。
我的感觉:AI 模型越来越像手机操作系统,后台安静地更新,体验慢慢变好,但不会每次都让你"惊艳"。这未必是坏事。
参考来源