从规模化到研究:AI通往AGI的范式转向与超级智能的深层呼唤

温故智新AIGC实验室

TL;DR:

在AI领域,“大力出奇迹”的规模化法则正遭遇瓶颈,Ilya Sutskever等顶尖科学家呼吁转向“研究时代”,以“情绪价值函数”和泛化能力为核心,寻求AGI的关键突破。与此同时,围绕AI的商业泡沫与就业冲击的争论愈演愈烈,预示着一场深刻的社会经济变革。

过去五年,人工智能领域的主旋律是“规模化法则”(Scaling Law)——投入更多数据、算力和模型参数,即可实现性能的显著提升。这种“大力出奇迹”的策略推动了大语言模型(LLM)的爆发式发展,甚至被OpenAI联合创始人Ilya Sutskever称为“扩展时代”(Age of Scaling)1。然而,近期Ilya的一番言论却在硅谷掀起了轩然大波,他指出,单纯的规模化已不再能带来过往的质的飞跃,即便资源增加百倍,也可能无法实现同等程度的能力提升。这一观点,虽经他本人紧急澄清“扩展仍在带来进步,但我们仍缺失一些至关重要的东西”1,却无疑宣告了AI发展路径的重大范式转向:从纯粹的规模堆叠,迈向深层次的研究创新。

从规模化到研究:AGI路径的范式转向

Ilya Sutskever的言论,以及他离开OpenAI创立Safe Superintelligence Inc.(SSI)2后的首次系统性阐述,都清晰地指向了一个核心观点:AI的发展正从“Scaling时代”回归“研究时代”。他将2012-2020年视为“研究时代”,新想法层出不穷;2020-2025年则被“Scaling”吸走了所有空气,核心创新乏力;而现在,预训练数据趋于枯竭,算力边际效应递减,真正的飞跃需要根本性的研究突破2

这一转变并非否定规模化的价值,而是指出其局限性。当前,AI基础设施的投资热潮仍在持续,微软、Alphabet、Meta、亚马逊等科技巨头预计2025年资本支出总额将达到约3700亿美元,并预计在2026年继续攀升3。哈佛大学经济学家Jason Furman估计,2025年上半年,数据中心和软件处理技术的投资几乎贡献了美国全部的GDP增长3。这表明,“数字铁路”的铺设仍在如火如荼地进行,为未来的智能时代奠定基础。然而,问题的关键在于,这条“铁路”通向何方,以及如何才能高效抵达目的地。Google DeepMind CTO Koray Kavukcuoglu也强调,AI进步的动力源泉永远是创新,Gemini 3更像是一种开放式探索,需要持续寻求新架构、新想法、新方式1。这与Ilya的观点不谋而合,共同预示着一场深层的技术范式革命。

AGI的“缺失拼图”:情绪价值函数与泛化能力

Ilya Sutskever所指的“至关重要的东西”究竟是什么?他此前的播客对话中,曾深入探讨人类智能的“天赋”:我们学习能力不仅源于经验,更来自自进化硬编码的“价值函数”。他引述了一个发人深省的案例:一个因脑损伤失去情绪能力的人,即便智力、语言、逻辑未变,却变得极其难以做决定,甚至连穿袜子都犹豫不决。这表明,情绪并非“多余的噪音”,而是决策系统不可或缺的一部分,它是一种高效的“价值函数”,指引我们判断“可行之路”与“危险方向”14

当前的AI模型,虽有类似价值函数的训练方式(如模型打分器),但这些机制相对脆弱、粗糙,并非内置于其核心架构中。Ilya认为,这是当前模型尽管持续改进,却无法实现AGI的关键原因——我们尚未掌握构建真正可行系统架构的方法1。他进一步指出,现有的强化学习(RL)构建的学习环境,本质上是一种“应试教育”,模型在全量数据和反复刷题下表现出色,但在遇到从未见过的陌生情况时,泛化能力严重不足,表现出“能力时高时低”的“Jaggedness”2

因此,Ilya的愿景是转向**“素质教育”:提升模型的泛化能力样本效率**。他设想的ASI(超级人工智能)不是一个全知全能的模型,而是一个“快速学习者”,能用小样本高效学习,并像人类一样在没有海量指令下持续学习,更像一个15岁的超级智能学习者,渴望不断学习2。这意味着AI需要一种内在的“GPS”——价值函数,让它在推理过程中就能感知到错误,大幅降低探索和推理的成本。

未来已来:AGI时间表的争论与商业投资逻辑

尽管对实现路径存在分歧,但AI领域的顶尖专家们对AGI/ASI的到来时间却有着惊人的一致性预测:Demis Hassabis说5-10年,François Chollet说大概5年,Sam Altman说可能在几千天之内,Yann LeCun说大约10年,Ilya Sutskever说5-20年,而Dario Amodei甚至最乐观地认为可能2年内。无人认为ASI是天方夜谭,也无人认为需要等待100多年1

围绕AI的商业投资,也展现出狂热与理性的交织。以奥特曼、盖茨和贝佐斯为代表的观点认为,当前的狂热虽伴随泡沫,但这是一种**“产业泡沫”**,如同互联网泡沫后留下的光纤和服务器,或铁路投资狂潮后建成的铁路网,最终会留下改变世界的“数字铁路”3。而英伟达掌门人黄仁勋则坚决反对“泡沫论”,他认为这并非金融游戏,而是计算方式的根本转型——从通用芯片到加速芯片,只要AI能持续产出“值得付费的智能”,便是实打实的供需关系3。这种论战凸显了对AI价值评估的深层分歧:是着眼于短期估值飙升,还是长远的基础设施与能力变革。

AI海啸下的社会重构:工作与人类价值

AI技术飞速发展带来的另一重大议题,是其对就业市场的深远影响。MIT与橡树岭国家实验室合作开发的“Iceberg Index”模拟工具指出,AI目前已具备取代美国11.7%劳动力的能力,而这次受冲击的主要是白领工作3。Anthropic CEO Dario Amodei警告,未来五年内50%的入门级白领工作可能消失;马斯克也直言,“坐在电脑前处理数字”的工作可能被AI迅速接管。图灵奖得主Geoffrey Hinton甚至“扎心”建议大家去当水管工,因为AI擅长写法律文书、做表格,却难以修理漏水的水管3

然而,并非所有人都持悲观论调。黄仁勋反驳称,取代你的不是AI,而是“会用AI的人”;公司借助AI提升效率后会赚更多钱,并雇佣更多人来开展新项目。Yann LeCun则认为“人类是老板,AI是超级助手”,AI越强,人类越轻松。摩根大通CEO甚至描绘了一周工作3.5天的美好职场乌托邦3

这些观点的交锋,共同指向了一个不可逆转的趋势:AI引发的“海啸”正在来临,它将重塑我们对工作、技能和人类价值的理解。无论是悲观者眼中被淹没的风险,还是乐观者眼中的冲浪机遇,人类都需要迅速适应,习得与AI共存、共创的新技能,重新定义自己在社会分工中的角色。

迈向超级智能的深层反思

Ilya Sutskever对AGI/ASI的思考,超越了纯粹的技术范畴,触及了哲学与伦理的深层。他领导的SSI致力于纯粹的研究,不追求短期产品化,正是为了避免硅谷当前“老鼠竞赛”般的浮躁氛围,避免“想法廉价,执行至上”的短视逻辑2。他构想了一个更乌托邦式的AGI生态:技术方案百花齐放,创新被珍视,世界由新观点而非新算力驱动,技术应是简洁、优雅、美的,而非大量浪费、依赖蛮力2

在AI安全方面,Ilya提出了一个独特视角:与其让AI学习人类矛盾脆弱的价值观,不如让AI感知所有生命(包括动物和AI自身)并与之共情,通过这种机制理解自我和其他感知存在,最终可能产生关怀2。甚至,为了避免人类在超级智能面前沦为“宠物”,他抛出了一个颇具争议的设想——通过脑机接口,让人类自身也成为强大的AI,实现一种半人半神的“终极对齐”2

这场关于AI未来路径的辩论,不仅是技术路线之争,更是对智能本质、文明进程、乃至人类自身定位的深刻反思。从“大力出奇迹”到探寻“缺失拼图”,AI的发展不再是线性的规模扩张,而是深邃的内省与范式重构。它要求我们不仅关注技术的性能指标,更要审视其内在机制、社会影响以及与人类文明的终极关系。在AI浪潮之下,真正的挑战在于,我们能否在技术洪流中保持清醒的哲学思辨,引导智能走向一个兼顾效率与伦理、创新与深度的未来。

引用


  1. Scaling已死吓坏硅谷,Ilya紧急辟谣!·新浪财经(2025/11/29)·检索日期2025/12/1 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  2. 这不是Ilya想要的AGI,但他要什么自己也不确定·虎嗅APP·郭海惟(2025/11/28)·检索日期2025/12/1 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  3. 扩展时代面临转折?Ilya Sutskever:AGI之路需新突破·云炬天下(2025/12/01)·检索日期2025/12/1 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  4. OpenAI创始人揭示AGI最后一块拼图,万亿投资也搞不定...·UponlyTech(2025/11/29)·检索日期2025/12/1 ↩︎