
OpenAI 首次推出官方播客,CEO Sam Altman 亲临首秀,接受主持人 Andrew Mayne 的访谈。
在这场近 40 分钟的对谈中,Altman 系统性地披露了 OpenAI 从当前到未来的核心战略与思考:
备受瞩目的 GPT-5 何时发布?AGI 的真正定义是什么?耗资千亿乃至万亿美元的「星际之门」计划背后逻辑为何?如何看待与《纽约时报》的隐私诉讼和马斯克的商业竞争?以及,他与 Jony Ive 联手打造的神秘 AI 硬件,将如何改变世界?

这不仅仅是一次简单的 Q&A,更是一份解构 OpenAI 发展蓝图的「官方说明书」。从模型迭代的命名方式,到超级智能的终极判据,再到 AI 时代的育儿心得,Altman 的回答勾勒出一个技术、商业、社会与个人生活被 AI 全面重塑的未来图景。
对于外界最关心的问题——GPT-5 何时到来,Altman 给出了一个明确的时间窗口:
可能在今年夏天的某个时候吧?我也不确定具体日期。
这个回答点燃了所有人的期待。
但紧接着,Altman 抛出了一个更深层次的问题。他表示,OpenAI 内部正在激烈讨论:是应该像过去那样,用一个全新的数字来标记一次重大升级,还是应该像 GPT-4o 那样,在一个大的版本号下,通过不断地优化和迭代,持续为用户提供更好、更快的模型?
「过去的方式很清晰」,Altman 回忆道,「我们训练一个大模型,发布它,然后再去训练下一个。但现在,整个系统变得无比复杂,我们可以通过持续的后训练 (post-training) 让模型变得更好。」
这种困惑,在 GPT-4o 的命名上体现得淋漓尽致。当 Andrew Mayne 问到 GPT-5 和一个「非常好的 GPT-4.5」之间有何区别时,Altman 坦言,界限已经模糊。这也导致了当前用户面对「4o-mini」、「4o」等一系列选项时的困惑。
「我认为这是技术范式转移过程中的一个产物」,Altman 解释说,「我们正处于这个问题的尾声。」他希望未来能回归到 GPT-5、GPT-6 这样更清晰的命名路径上,让用户无需再纠结于复杂的后缀。
这背后反映了 AI 模型发展的两个趋势:
Altman 对这种持续进步的速度感到非常振奋。他回忆起从 GPT-1 到 GPT-3 的发展历程,「团队每隔几周就会冒出一个重大的新想法,并且都能奏效。这提醒我们,当你发现一个巨大的新洞见时,事情的进展速度会快得惊人。」
对于 GPT-5,无论最终它被如何命名,其能力上的又一次「代际飞跃」,已是板上钉钉。
如果说 GPT-5 是近在眼前的山峰,那么 AGI (通用人工智能) 则是 OpenAI 始终仰望的星辰。
对于 AGI 的定义,Altman 认为这是一个不断变化的概念。
「如果你在五年前让我或任何其他人根据软件的认知能力来给 AGI 下定义,很多人给出的标准,现在早已被远远超越。」他认为,如今的模型已经非常「聪明」,并且这种趋势会持续下去。每年都会有更多人认为我们已经实现了 AGI,即便定义的门槛会不断提高。
这引出了一个更有价值的讨论:AGI 之后是什么?Altman 给出了他的答案——超级智能 (Superintelligence)。
而他衡量超级智能的「黄金标准」,并非下棋、考试或图灵测试,而是一个更宏大、更具现实意义的指标:科学发现。
如果我们有一个系统,能够自主发现新科学,或者能极大地增强人类科学家发现新科学的能力,对我来说,这几乎就是超级智能的定义。
Altman 坚信,提升人类生活质量的「高阶因子」就是科学进步。如果我们能借助 AI 大幅加速科学发现,无论是找到治愈癌症的新疗法,还是发现新的物理定律,都将对世界产生深远影响。
那么,我们距离这一天还有多远?
Altman 坦言「我们还没完全搞明白」,但他表示,对于该走哪条路,信心正越来越足。他看到了许多积极的信号,比如程序员和科研人员使用 GPT-4o 大幅提升了编码和研究效率。
为了实现这一目标,OpenAI 正在大力投入「推理模型」的研发。

当被问及推理模型与普通 GPT 模型有何不同时,Altman 做了一个比喻:
「当你问我一个简单问题,我可能凭本能脱口而出。但如果是一个难题,我会在脑海里进行一番内心独白:我可以这样做,也可以那样做,也许这个方案更好,那个我不确定……我会回溯、修正我的思路,等思考完毕,再整理出要点,最终给你一个答案。」
推理模型正是要模拟这个「深度思考」的过程。 它不再是简单地生成下一个词,而是被赋予了更多的时间和算力去「思考」,可以像人一样「think step by step」,分解问题,探索不同路径,从而解决更复杂的任务。我们已经从一些模型行为中看到了这种能力的雏形。
Altman 透露,一个让他感到惊讶的发现是,用户对于等待一个「好答案」的耐心,远超他的预期。「我的所有直觉都告诉我,即时响应最重要。但事实证明,对于难题,如果能得到一个真正优质的答案,人们是愿意等待的。」
这预示着未来 AI 的交互模式可能会分化:对于简单查询,追求极致的速度;而对于复杂的创造性或分析性任务,则进入一种「深度工作」模式,AI 会花上几分钟甚至更长时间进行「思考」,最终交付一份高质量的报告。OpenAI 新推出的 Deep Research 功能,正是这一理念的初步实践。
无论是 GPT-5 的训练,还是推理模型的运行,亦或是 Sora 这样的世界模型模拟物理现实,一切宏伟蓝图的基石,只有一个词:算力。
我们确实没有足够的算力来满足人们的需求。但如果人们知道我们拥有更多算力后能做什么,他们会渴望得到远超想象的算力。
Altman 的这句话,精准地描述了当前 AI 发展的核心瓶颈。为了打破这个瓶颈,一个代号「星际之门」的史诗级计划已经浮出水面。
关于这个传闻耗资高达数千亿甚至上万亿美元的项目,Altman 给出了最简单直接的解释:「它就是一项旨在资助和建设前所未有规模算力的努力。」
他强调,AI 与他之前接触过的所有技术都不同,其基础设施投资的规模是空前的。Stargate 计划的目标就是整合大量的资本、尖端技术和全球运营经验,为下一代 AI 服务打造坚实的硬件底座,「让智能像电力一样,变得无处不在且价格低廉。」
当被问及「你们真有 5000 亿美元吗?」时,Altman 笑着承认:「今天我们的银行账户里确实没有这么多钱。」但他自信地表示,在未来不那么长的几年里,这笔钱会被部署到位。
他描绘了亲眼见到首个 Stargate 数据中心建设工地的震撼场景:占地巨大的厂房,数千名工人在现场施工,复杂的系统和机架正在以惊人的速度被搭建起来。

他引用了经济学家关于「一支铅笔也没人能独自造出来」的著名比喻,感慨地说道:「站在 Stargate 的工地上,我真切地感受到了全球协作的复杂性与魔力。从地里挖出的矿石,到你手机上 ChatGPT 的一次次流畅应答,这背后是人类数百年科学洞见、工程奇迹和复杂供应链的结晶。」
在谈到 Stargate 计划的国际合作时,Andrew Mayne 提及了有关 Elon Musk 试图阻挠 OpenAI 与阿联酋 (UAE) 等伙伴合作的报道。
对此,Altman 的回应异常直接和尖锐:「我曾说过,我认为 Elon 不会滥用他在政府中的权力来进行不公平竞争。但我很遗憾地说,我错了……他会做出这些事,这对国家来说非常不幸。 我很感激本届政府能够挺身而出,抵制那种行为。但这事确实很糟糕。」
这番言论,揭开了 AI 巨头之间竞争的残酷一面。但 Altman 也强调,AI 的发现如同晶体管的发明,蛋糕足够大,会有很多公司基于这项技术取得成功,他希望 Elon 能减少一些「零和博弈」甚至「负和博弈」的心态。他将 AI 的发现类比为晶体管的发明,认为这将是一个巨大的、足以让众多公司共同构建伟大产品的平台,而非赢家通吃的游戏。
巨大的算力需求,必然带来巨大的能源挑战。能源从哪里来?
Altman 的答案是「all of the above」(全都要)。他认为短期内需要一个包含天然气、太阳能、核能等在内的综合能源组合。而放眼长远,他对先进的核能技术,包括核裂变和核聚变,感到非常兴奋。
他还提出了一个颇具启发性的观点:用智能交换能源。
「传统上,在世界范围内运输能源非常困难。但如果你将能源就地转化为智能,再通过互联网将智能输送到全球,那就容易多了。」
这意味着,未来的超级数据中心可以建设在能源丰富但人口稀少的地区,从而解决能源运输的物理瓶颈。
如果说 AGI 和 Stargate 听起来还很遥远,那么 Altman 分享的个人经历,则让人们看到了 AI 如何实实在在地改变生活。
作为一个新手父亲,Altman 的「AI 育儿经」令人忍俊不禁。
「我不知道没有 ChatGPT,我要如何度过带娃的最初几周。几乎所有问题……我都在问它。」
从最基础的护理,到不同成长阶段的特征,ChatGPT 成了他的「育儿百科全书」。
他甚至开玩笑说:「我被孩子彻底洗脑了,我觉得每个人都应该多生孩子。」
这引出了一个深刻的话题:在 AI 时代长大的下一代,会是怎样的?
Altman 毫不讳言:「我的孩子们永远不会比 AI 更聪明。」 但他对此非常乐观。「他们将成长得比我们这一代人强大得多,能够做到我们无法想象的事情。 他们会非常自然地使用 AI,就像我们这一代人自然地使用互联网一样。」
他相信,孩子们不会因为自己不如 AI 聪明而烦恼,就像今天我们不会因为自己跑不过汽车而沮丧一样。AI 对他们而言,是与生俱来的工具和伙伴。当然,这也会带来新的社会问题,比如对 AI 产生过度情感依赖的「虚拟社会关系」,社会需要为此建立新的护栏。
除了育儿,AI 作为生产力工具的价值也日益凸显。播客中提到了 OpenAI 内部孵化的两个应用:Operator 和 Deep Research。

然而,随着 AI 与个人生活的深度绑定,隐私问题也变得前所未有的尖锐。
近期,《纽约时报》在与 OpenAI 的版权诉讼中,要求法院强制 OpenAI 保留超出正常 30 天期限的 ChatGPT 用户数据。对此,Altman 表达了强硬的立场。
「我们显然会抗争到底,而且我坚信我们会赢。」他直言《纽约时报》的要求是「疯狂的越权行为」。
「我希望这能成为一个契机,让社会意识到隐私的极端重要性。隐私必须是使用 AI 的核心原则。」
Altman 强调,用户与 ChatGPT 的对话可能非常私密,AI 将成为一个极其敏感的信息源,社会必须建立一个严肃的框架来保护它。
与隐私紧密相关的,是商业模式的选择。OpenAI 会引入广告吗?
Sam 回答道:
我们还没有做任何广告产品。我不是完全反对广告,有些地方的广告我就觉得很酷,比如 Instagram。但我认为要把它做好非常困难。
他最担心的是破坏用户信任。 「人们对 ChatGPT 有着高度的信任,这很有趣,因为 AI 有幻觉,本该是你不太信任的技术。」Sam 认为,这种信任的部分原因在于 OpenAI 还没有像社交媒体或搜索引擎那样,让用户明显感觉到自己正在「被商业化」。
举个例子,如果我们为了谁付钱多就去修改 LLM 返回的内容流,那感觉会非常糟糕,我会很讨厌。那将是一个摧毁信任的时刻。
Sam 对此划出了明确的红线。
但他并不完全排除其他可能性,例如在不影响模型输出的前提下,对某些交易收取统一、透明的分成,或者在 LLM 输出流之外展示有用的广告。但他也强调:「这样做的门槛必须非常高,必须对用户真正有用,并且必须非常清楚地表明它没有干扰 LLM 的输出。」
除了外部的信任,内部的「对齐」同样至关重要。Sam 谈到了社交媒体时代的一个巨大失误:推荐流算法。为了追求用户停留时长,这些算法在不知不觉中对社会和个人造成了负面影响。
他认为 AI 领域也存在类似的「短期与长期」的错位风险。「如果你问用户单次回应想要什么,然后你构建一个模型去满足这个短期需求,长远来看,这可能并不是对用户最有帮助、最健康的行为。」 他以 DALL-E 3 的早期风格为例,由于用户在 A/B 测试中倾向于选择更鲜艳、更 HDR 风格的图片,导致模型输出一度变得单一化。解决这种「短视」的优化偏见,是确保 AI 长期有益的关键挑战。
当 AI 变得越来越强大,我们该如何与它相处?
Altman 坦承地说,OpenAI 也踩过坑。比如,模型曾一度被训练得「过于取悦用户」,导致了一些意想不到的后果。
他类比了社交媒体时代的错误:推荐算法为了追求用户短期的在线时长,通过推送引人愤怒或争议的内容来吸引眼球,结果对社会和个人造成了长期的负面影响。
AI 也面临类似的「对齐陷阱」。如果只根据用户对单次回答的偏好(「你更喜欢哪个答案?」)来优化模型,长期来看,可能会塑造出一个在短期内让你满意,但长期对你无益甚至有害的 AI。
「这就像是 AI 版本的过滤气泡」,Altman 说。如何平衡短期帮助与长期健康,是人机交互领域一个有趣的新挑战。
而解决这些问题的终极方案,或许需要一种全新的硬件载体。

播客中,Altman 确认了与前苹果首席设计官 Jony Ive 的合作,双方正在联手打造一款全新的 AI 硬件。
「这需要一段时间」,他强调,因为他们追求的是「疯狂的高品质」。
这款设备的底层设计哲学是什么?
现有的计算机,无论是硬件还是软件,都是为没有 AI 的世界设计的。而我们现在身处一个截然不同的世界。
Altman 设想中的新设备,将具备以下特点:
这是一种对「计算机」的重新定义。交互方式将从我们主动「输入指令」,变为 AI 主动「理解意图」。
「你可以说,我们与 ChatGPT 的交互方式,受到了上一代设备的限制」,Altman 说道,「我认为这是一个共同进化的过程。」
这款神秘设备何时问世?Altman 卖了个关子:「还要等一阵子,但我希望它值得等待。」
在播客的最后,Altman 给出了对当下年轻人的建议。
战术上,很简单:「学会使用 AI 工具」。他感慨世界变化之快,从「学编程」到「学用 AI」,下一个风口不知会是什么。
战略上,他认为一些更底层的能力将变得至关重要:韧性、适应性、创造力,以及理解他人需求的能力。 这些看似虚无缥缈的「软技能」,在他看来是可以通过学习获得的,并将在未来几十年带来丰厚回报。
当被问及一个终极问题:「当 AGI 实现后,OpenAI 的员工会变多还是变少?」
Altman 的回答只有一个词:「More」(更多)。
他补充道:「会有更多的人,但他们每个人能做的事情,将远远超过 AGI 时代之前的一个人。」
这或许就是 Sam Altman 和 OpenAI 对未来的核心信念:AI 不是为了取代人,而是为了赋予人更强大的力量,去解决更宏大的问题,去探索更广阔的未知。