
(本文解读前OpenAI联合创始人Ilya Sutskever近期的访谈)
最近AI圈被一颗“深水炸弹” 炸得人仰马翻。投下这颗炸弹的人,正是前OpenAI联合创始人、被誉为“GPT之父”的 Ilya Sutskever。他在一场罕见的深度访谈中,直言不讳地宣告:“单纯靠堆钱、堆算力、堆参数的AI模式,已经走到尽头了。”

我仔细看完了全程一个多小时的采访,发现这位亲手缔造了ChatGPT时代的传奇科学家,如今公然否定了过去几年里被AI行业奉为圭臬的“Scaling Law”(缩放定律),就像武侠小说里的武林盟主突然宣布,大家练了多年的绝世武功其实是条死胡同。
江湖,瞬间炸开了锅。
要理解 Ilya 这番话的分量,得先说说啥是 Scaling Law。这个定律就是AI界的“大力出奇迹”法则。大约在2017年前后,Ilya 和团队发现,AI模型的聪明程度和参数数量、训练数据量、计算力呈严格的幂律关系,就像往篝火里不断添柴,火苗就会越烧越旺。
这个发现直接点燃了全球AI大模型的军备竞赛。从GPT-3 的 1750 亿参数,到后来动辄万亿级参数的模型,从爬取全网数据到疯狂抢购英伟达 H100 显卡,全行业都在信奉“越大越好”。最近几年,OpenAI 靠着这套逻辑推出了 ChatGPT,谷歌、Anthropic 等巨头纷纷跟进,Scaling Law 成了AI圈的“金科玉律”,甚至有人调侃:“只要GPU管够,傻子都能做AI”。

但如今,当初提出这套逻辑的 Ilya 却亲手敲响了警钟。他说:“我们已经爬完了这座山,现在再往上爬,每走一步都要付出十倍百倍的代价,却只能前进一小步”。
他为什么这样说呢?因为两个致命瓶颈出现了:
1. 高质量数据快用光了 互联网上有价值的文本就那么多。再往下挖,要么是重复内容,要么是低质内容。结果呢?模型开始“神经兮兮”,性能像坐过山车。 2. 边际收益暴跌到离谱 想让模型性能提升10%?现在可能得把算力成本翻一倍。这哪是技术进步,简直是“烧钱买安慰”。
更扎心的是Ilya打了个比方:现在的AI模型就像“练了1万小时算法竞赛的学生”,做标准化考题能拿满分,甚至能拿下IMO数学金牌,但一到实际工作中就掉链子。让它修复一个代码 Bug,它修完后大概率会引入新的 Bug;你再让它改正新的 Bug,可能又把原来的 Bug 带回来了…来来回回陷入死循环。
这就像那些只会死记硬背武功秘籍的呆子,招式耍得花里胡哨,遇上江湖实战连基本的应变都不会。Ilya 点破了关键:问题不在模型大小,而是在强化学习(RL,Reinforcement Learning)的训练上,为了让模型在基准测试里好看,研究者们无意中让模型“过拟合”了考试题目,练出了一身“应试技巧”,却没学到真正的“判断力”和“品味”。

这几乎是大模型领域公开的秘密:想在华山论剑(基准测试)中夺魁,需凑齐三样法宝:海量参数、奖励驱动算法与真题宝库。前者让你死记硬背所有招式,中者驱使你专攻一招制胜的“捷径”,后者则限定了比武范围。如此修炼出的高手,尽管招式华丽,却可能内功虚浮,一旦踏入复杂的江湖,便容易破绽百出。
所以,要突破模型的瓶颈,必须革新训练范式与评估体系。Ilya为此给出了出人意料的答案:向人类学习,尤其是要补上“情感”这堂课。
他提出了一个颠覆行业认知的观点:人类智能的核心不是拥有多少知识,而是拥有一套强大的“价值函数”,也就是我们的直觉和情感。青少年学开车,不用撞成千上万次就能掌握,因为他心里知道“这样开不对劲”;程序员写代码,不用等到测试报错就知道“这个逻辑有问题”,这种即时的自我纠正能力,正是AI目前最缺失的。

“人类的情感从来不是累赘,而是智能的终极算法”,Ilya的这句话戳中了要害。现在的AI没有灵魂,做对做错都不知道为什么,全靠外部打分反馈来调整。而我们人类之所以能高效学习,就是因为内在的“价值函数”在时刻导航,让我们在没有明确奖励的情况下也能自我优化。
Ilya认为,未来的超级智能,绝不是存储了全世界知识的“静态硬盘”,而是拥有极高学习效率的“超级学习者”,能像人类一样,通过少量接触就掌握任何工作,这才是AGI(通用人工智能)应该有的样子。(谷歌提出嵌套学习的新方法来使机器可以像人类一样学习,可参加本公众号之前的文章)
这次发声其实是Ilya长期思考的结果。了解他的人都知道,这位AI界的“神秘主义者”,一直和OpenAI的商业化路线存在分歧,Ilya更在意AI的安全和技术本质。2024年,Ilya离开OpenAI创立SSI公司,拿到30亿美元融资,就是想避开商业压力,专心探索这条新路径。
Ilya的观点引发了AI圈的不少争论,但有个共识已经基本形成:纯靠堆料的时代必然结束。就像历史上的技术革命,从来不是靠无限堆积资源实现的:摩尔定律靠的是物理和制造的突破,AI的下一次飞跃,终究要回到科学研究的本质。

答案或许就像他强调的那样:真正的超级智能,不仅要有超越人类的能力,更要有“关爱有感知生命”的温度。毕竟,没有情感和价值判断的智能,再强大也只是冰冷的机器;而懂得自我审视的AI,才有可能成为人类真正的伙伴。
AI的发展如同登山,翻越一座高峰后,眼前往往是更高的山脉。Scaling Law 主导的时代渐行渐远,但这远非 AI 的终点,而是更精彩的 “研究时代” 的黎明。站在当前的山巅,Ilya 的警示宛如一声号角,提醒所有攀登者:莫要只顾低头赶路,更需抬头看路。因为通往超级智能的路径,从来不是仅凭算力与数据的“蛮力”所能铺就的。