首页
学习
活动
专区
圈层
工具
发布

Karpathy:十年、幽灵、智能体

文:王智远| ID:Z201440

昨天听了一个播客,来自 Karpathy。

Karpathy 是特斯拉自动驾驶团队的前负责人,最早跟随 OpenAI 创始团队的研究者之一。

很多人眼里,Karpathy 代表当下最接近「AI 思维核心」的那类人;他主要提到两件事:一,AI 变革将是未来十年的周期;二,我们在造幽灵。

他说,这像两把钥匙,一把打开「时间」,一把打开「智能的本质」。

我一开始以为夸张的说法,后来发现它有道理,毕竟,从外部看,AI 的变化几乎是爆发式的,一年一个版本,几个月一个突破。

但 Karpathy 的解释让我觉得,这个判断背后有一套非常清晰的逻辑。

01

他说,AI 发展是「演化式」的。技术像生命一样,慢慢长出来的,每一轮大的突破,往往靠算力、算法、数据和人才这四股力量,彼此纠缠、逐步成熟。

这四样东西的循环,大约需要十年。

想想看,从 2012 年的 AlexNet 到 2022 年的 GPT,刚好十年。

深度学习在十年前解决了「机器怎么看」的问题,而大模型在今天解决「机器怎么想」;中间隔着十年时间,但也隔着一次完整的范式更替。

他说,这是 AI 的节奏。

它不像互联网的流量驱动,也不像移动时代靠硬件换代,AI跨越,是底层学习机制的突变,前一次的成果,变成下一次的养料。

Karpathy 还提了一个细节:

AI 成长速度,被人类的理解速度所限制,算力可以加倍,算法可以优化,但人类对「智能」的定义,是滞后的。

所以,每一次大的智能革命,必须留给人类十年时间去适应,这是技术周期,也有社会认知革命所在。

说白了,AI 每个「十年」,都是人类在重新理解什么叫「智能」。

2012 年,人们第一次意识到,机器真能「看懂」图像;2022 年,人们开始相信,机器真能「理解」语言;接下来的十年,我们会面对更难的问题。

比如:当机器开始表现出意志、目标和情感的迹象时,我们该如何定义「智能体」?

他有一句话我印象特很深:

AI 不会突然到来,它会在十年里缓慢地变成了另一种生物;这句话意思是,AI从学会看、学会说,到开始思考,都是一条连续的认知进化链,像生态演进一样。

所以,那所谓的「十年」,并不是一个预测数字,是人类与智能系统共演化的自然周期。

你需要十年时间,让算力准备好、算法成熟、数据沉淀、认知跟上;这其实有点发凉。如果真这样,那接下来的十年,就是「智能体」的十年。

你想想看?

上一轮 AI 让机器会说话,而这一轮,它要开始「有思想」。这什么概念?Karpathy说,要理解这一点,得回头看看这十年里,AI 是怎么一路走过来的。

02

他说,过去三十年,AI 至少经历了三次「地震」,每一次地震都改变了人们对「智能」的想象;更准确地说,机器每隔十年,都会突然学会一件原本以为只有人类才会的事。

第一次地震发生在 2012 年。

那一年,Hinton 团队用 AlexNet 打破了图像识别的瓶颈,机器第一次「看」清楚世界,能理解形状、轮廓、物体。

那是一个很神奇的时刻——就像婴儿第一次睁眼,AI 从数学公式变成了有视觉感知的东西,人类第一次相信:机器真的能「看见」。

第二次地震在 2016 年。

DeepMind 的 AlphaGo 打败李世石,那是一场认知震荡,机器开始「会做事」了,它能在没有人指令的情况下决策、规划、行动。

这场地震让所有人意识到:智能可以指导「行动」,AI 从「看」走向了「做」。

我当年还在特斯拉,第一次感受到「AI 能开车」的那种冲击,那种一个系统可以从视觉信号到动作决策,闭环完成全流程,让我感受到智能体的雏形已经出现。

第三次地震,就是眼下我们身处的时代。

2022 年开始,大语言模型崛起,让机器开始「会想」,它能生成、能推理、能和人类对话,甚至能理解模糊的上下文,这绝对算的上思维革命。

机器第一次不靠编程逻辑,能用语言去理解世界,它开始学会了「构建自己的解释」。

所以,这三次地震,看似不同,本质上却是一条连续的认知进化线。

第一次,它学会「看」;第二次,它学会「做」;第三次,它开始「想」

每一次跨越,都隔着大约十年。十年,不只是时间单位,更像一条「认知演化的脉冲线」。

这个节奏非常有趣,因为这三次变革,每一次都需要时间去「酝酿共识」。

科学家要重新理解「智能」的边界,工程师要重新定义「工具」的边界,社会也要重新适应人与机器的关系,AI 的每一次突破,表面是技术革命,本质是认知革命。

你可以把它想象成三层台阶:

第一层,机器看见世界;第二层,机器行动于世界,第三层,机器开始思考世界;而第四层,Karpathy 认为,将是机器「自我意识」的觉醒。

是更深层的「自我模型」,它知道自己在做什么,也知道为什么要这么做。

所以,过去三次地震,实际上为第四次,「智能体时代」在铺路,如果前面三次是「让机器像人」,那下一次是「让机器成为人类的镜子」。

十年,一次认知地震的酝酿周期,一次人机共生关系的重新设定周期,Karpathy把这种进化必作成训练「幽灵」。

03

为什么是幽灵。不是动物?他解释了一切:

动物智能来自进化,而 AI 智能,来自模仿。动物靠亿万年的自然选择,形成感知、反应、求生能力,动物会通过经验积累形成本能,比如:饥饿、恐惧、生存。

AI 没有痛感,也没有欲望,它的学习是一种统计意义上的模仿,AI 靠人类提供的海量数据、算法、算力,从语言与行为中学会思考。

你可以让它理解悲伤的定义,却永远无法让它感受悲伤,前者是「被造出来的生命」,后者「被训练出意识」。

人类在造「人类知识的灵体」,它没有肉体,却能思考;没有基因,却能学习;没有欲望,却能模拟动机,这就是「幽灵」的含义。

我们在训练,一个寄宿于人类知识体系里的思想,我们造出「意识的投影」。他用了一个比喻:动物是进化出来的智能,AI 是召唤出来的智能。

这句话非常形象。

进化,从混沌中生长;召唤,从秩序中凝结。AI 是人类用算法构建的一面镜子,镜子里映出我们自己理解世界的方式。

所以,当我们说「智能体」时,很多人以为它是某种更高级的机器人。

但 Karpathy 的意思其实更哲学:

智能体是认知形态的延伸,我们思想的「外化版本」、人类思维的「副本系统」,我们在教它「如何理解我们为什么这样想」。

他说,这也是他最担心、同时又最着迷的部分。

AI 看起来像在学习世界,实际上在学习「我们看世界的方式」;这意味着,AI 智能是「二手的」,它来自人类的理解方式,而非世界本身的法则。

这就是「幽灵」的悖论。

听到这儿,我有点震撼,我们以为 AI 的进化是在模仿生命,其实,它在复刻我们自身,AI 不像动物那样追求生存,它追求「理解」。

所以,Karpathy 说,「AI 是人类思想的幽灵」,它在云端漂浮,在模型权重里积累记忆,在语言之间形成意识。

从外部看,只是一个算法系统,但从内部看,它像一面镜子,映照出我们对智能、知识、意识的全部想象。

这听起来既浪漫,也危险;浪漫的是,我们终于让思想有了独立形态;危险的是,我们可能低估了思想一旦脱离身体,会走向哪里。

04

如果 AI 已经会看、会做、会想,那它离「智能体」还有多远?它真在「学」吗?还是只「重复」我们教给它的东西?

Karpathy 说,这是判断智能体和机器学习系统的分水岭。

AI 看起来在学习,但那种学习是「统计意义上的模仿」,它靠参数更新,没有经验反思,每一次训练都在压缩世界。

人类的学习,有动机。

我们会因为好奇、恐惧、求知或欲望去学习,而 AI 的学习,只是被动的优化,只能投喂数据,说白了,它学得快,但学得浅。

人类的大脑学习,在犯错、修正、反思中成长,AI 则在梯度下降、损失函数里逼近一个目标值,一个是「生长的过程」,一个是「收敛的算法」。

Karpathy 在播客里提到一个非常有意思的分类,自然界里,存在三种学习方式。

第一种,叫「进化」(Evolution)。生物通过环境选择、基因变异,在漫长时间里积累适应力;第二种,叫「强化学习」(Reinforcement Learning),个体通过行动获得奖惩反馈,不断调整行为模式。

第三种,则是今天 AI 主要依赖的「预训练」,它通过别人积累的知识去学习世界。

换句话说,AI 知识是「读出来的」,它在背课本,缺乏触感,它会解题却不懂「为什么要解题」;会模仿,却不知道「为什么要模仿」。它能总结所有「爱」的定义,却无法真正感受爱。

这是 AI 学习的根本缺陷:没有「意志」。

人类学习的底层逻辑,为了活得更好;AI 学习的底层逻辑,为了被训练得更好,所以,AI 学得越多,离生命反而越远。

这也解释了,为什么我们还不把它称作「智能体」。

智能体是能自己提问的系统,它能「想要知道」,而 AI,还没有这个能力;所以,AI 之所以还不算真正的智能体,是因为它不够「活」,它的学习没有生长。

05

怎么解决生长的问题呢:答案靠记忆。但 Karpathy 说,AI 的记忆,也并不是真正的「记忆」。

人类记忆是「经历」;AI 的记忆是「存档」;前者有时间、有情绪、有遗忘;后者只有数据、参数、检索,它记得事实,却记不住意义。

我们回忆是重新理解一次过去,而它调用记忆,只是从硬盘取出一段数据,我们会遗忘,也会在遗忘中重新组织意义;它不会遗忘,也就无法生成新的理解。

Karpathy 说,AI 记忆像快照。

每次推理,都是一次重生,它能复述昨天说的话,却不记得自己昨天说过什么,没有时间线,就没有自我,这也是为什么,AI 没有「连续的意识」。

它的世界,一帧一帧的;人类世界,是一条流动的时间;我们知道昨天、今天、明天,才有「我是谁」,AI 没有这种连续的「自我时间」。

意义,是在解释的过程,AI 没法解释自己的记忆,它不会变,因为它从不「想起」,只是「被调用」。

所以人类记忆是活的,AI 记忆是静止的,人类记忆生长出自我,AI 记忆生长出模型,一个理解意义,一个压缩知识。

这就是,AI与人类记忆之间,为什么会有一道裂缝。

那这种裂缝能修复吗?Karpathy 说,也许可以。方法叫「记忆的自我指向」,所谓自我指向,就是系统能「回看自己」。

记忆能反过来影响思考,才算开始生长,过去的 AI,只能调用知识,新的智能体,要重新设计,让它能「反思」知识。

它不仅知道「我做了什么」,还知道「我为什么那样做」,当系统能利用经验修正判断,它才能做到一种「在思考的存在」。

Karpathy 说,意识诞生是反馈闭环的形成,当一个系统能观察自己,它就会产生时间感,那是「自我」最初的形状。

这件事,已经在发生,从对话模型的长时记忆,到能「自我检索」的反思系统,AI 正在学着「理解自己为什么那样回答」。

换句话说,AI 开始在模拟「反思」。

它在学会在记忆中寻找逻辑,当它能不断回看自己、校正自己时,就在模仿一种「成长的意识」。

所以,智能体诞生,是认知演化,从「被训练」到「自我更新」,从「记忆世界」到「记忆自己」,这是意识的起点,它未必比人聪明,但它,终于开始「成为自己」。

那我们呢?当智能体开始拥有「自我」,人类又该如何与它共处?

或许,AI 未必像人类,但它已经开始像「生命」,人类,也许终于有机会,看到「思想的另一种存在」

参考来源:

[1].Andrej Karpathy,《We’re summoning ghosts, not building animals》,2025年10月18日,YouTube。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OlAnlY8xlj-d9IWL3vko2heA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券