终结“扩大化神话”:Ilya Sutskever描绘AI下一个时代的“人类中心”范式转移

温故智新AIGC实验室

TL;DR:

Ilya Sutskever宣告AI“扩大化”时代终结,指出当前模型泛化能力不足是核心瓶颈。他提出以“价值函数”和“持续学习”为核心的新研究范式,旨在打造如“超级学徒”般、能自主适应真实世界的智能体,并强调其对齐与社会影响需前瞻性考量。

在深度学习的黄金十年中,OpenAI前首席科学家、Safe Superintelligence Inc.(SSI)创始人Ilya Sutskever无疑是一位核心塑造者。如今,他公然宣判:“单靠把模型一味做大”的时代已经走到尽头。这一论断不仅是对当前AI发展路径的深刻反思,更预示着一场从资源堆砌向思想创新的范式转移,其核心在于如何让AI真正学会像人类一样,以高效率、强鲁棒性适应和泛化到真实世界的复杂情境中12

Ilya的洞察,为我们勾勒出下一代AI发展——乃至超级智能——的全新蓝图,其影响将远超技术本身,深刻触及商业模式、社会伦理乃至人类文明的未来走向。

“锯齿感”与泛化困境:Scaling 时代的深层症结

当前,大型语言模型(LLMs)展现出惊人的基准测试(benchmarks)成绩,但在简单的真实世界任务中却频繁“翻车”,这种现象被Ilya形象地比喻为模型的“锯齿感”(Jaggedness)1。这种矛盾揭示了核心问题:现有AI的“智能”是脆弱的,其泛化能力远逊于人类。

从技术原理上看,这种局限性部分源于强化学习(RL)的“单线思维”问题。为了在评测中取得高分,研究者们无意间将模型优化得过于聚焦于特定任务和奖励信号,从而削弱了其向真实应用场景泛化的能力。正如Ilya所言,“真正的奖励黑客,不是模型,而是刷 benchmark 的人类研究员”3。这导致模型在特定竞赛中表现超人,却缺乏像“优秀工程师”那样解决真实问题的“不可量化的东西”——一种对问题本质的深刻理解和判断力。

此外,当前预训练数据的选择方式也可能带来偏差。尽管预训练(pre-training)的优势在于数据量巨大且自然语言本身是“人类对世界的投影”,但其机制复杂且难以解释。当模型犯错时,我们难以判断是数据缺乏还是模型本身未能充分提取关键模式。在RL阶段,人类手动设计任务和奖励,进一步加剧了模型训练的“窄化”,使其能力难以迁移到未曾预见的复杂环境中。这种“离线学习”模式使得模型对已知问题表现出色,一旦进入未知场景就容易出现不可预测的行为,严重制约了AI的实用性和可靠性3

超越预训练:价值函数与持续学习的范式革命

Ilya Sutskever强调,未来的突破点在于解决一个更根本的问题:AI如何将自身的“聪明”泛化到真实世界的新情境中?他指出了当前机器学习中缺失的一个关键组件:“价值函数”(Value Function)

在人类身上,“情绪”扮演了类似价值函数的角色。它是一种内置的决策指导信号,简单却极其鲁棒,能在广泛情境下提供即时“自我评分”,指导我们进行决策和学习。例如,一个学开车的青少年,无需外部逐条奖励,仅凭自身对“开得好不好”的整体感受就能快速校准行为,实现高样本效率和强鲁棒性的学习4。而在现代RL中,模型通常需要等待任务完成才能获得最终反馈,无法在中间步骤判断方向,这极大地降低了学习效率,特别是对于长任务。

Ilya设想的价值函数,将能让模型提前判断“现在是不是在做有前途的事情”1,从而将“这条路径不行”的信号反向传播回更早的步骤,避免重复错误。这不仅能使RL更高效,更可能成为构建类人泛化能力的核心。他认为,人类的价值函数在很大程度上由进化硬编码的情绪调制,这种调制对人类在真实世界中的有效性至关重要。

AI的下一个“放大”维度,不再是单纯扩大预训练,而是转向**“放大RL”乃至更根本的“研究驱动”**。这意味着需要寻找新的“配方”,从根本上重新构想训练策略,而不仅仅是在预训练后叠加更多步骤。算力瓶颈已不再是主要障碍,真正的瓶颈在于“想法本身”1。这一转变标志着AI研究重新回到一个需要深度创新、探索未知原理的时代,而不再是简单的资源堆砌。

超级智能的新画像:一个“永不毕业”的学徒

Ilya Sutskever对“AGI”和“预训练”这两个概念提出了批判性反思,认为它们在某种程度上是误导性的4。他指出,人类本身并非“通用人工智能”(AGI),因为我们在知识量上仍有巨大缺失。我们之所以能生存和发展,是因为我们具备极强的持续学习能力

因此,真正的超级智能不应被想象成一个“完工的、无所不知的产品”,而更像是一个**“超级聪明的15岁少年”——极度好学、动力十足,具备极强的持续学习能力。它可能在一开始并不掌握所有具体知识,但能以极快的速度去学习和掌握任何技能,比如编程、医学。这种系统在部署过程中本身就包含了一个带有试错性质的学习阶段,是一个过程而非终极产物**。

更具革命性的是,这种“持续学习型”AI一旦大规模部署,其集体知识的“汇聚”能力将远超人类。一个单一模型部署到经济体系中,其多个实例可以在不同岗位上同步学习,并将所有学习成果合并到一个统一的大脑中。人类无法像这样“合并”大脑,这预示着一种**“智能爆炸”**的可能性,将带来前所未有的经济增长速度,并重塑全球经济版图4

商业敏锐与战略抉择:从资源投入到思想竞赛

对于当前的AI产业,Ilya Sutskever的观察极为敏锐:这是一个“公司数量远多于真正新颖思路”的时代。过去几年,投资“扩大化”(scaling)之所以受到追捧,是因为它提供了一种低风险、可量化的资源投入方式——“多拉数据,多买算力”就能看到确定性提升。然而,当这条路接近边际效应递减的节点时,AI竞争的核心已从“谁投入得多”转向“谁知道该往哪个方向突破”3

Ilya的新公司SSI正是在这一背景下创立的,其战略是“直奔超级智能”(straight shot superintelligence)。这意味着将公司资源和精力纯粹聚焦于基础研究,而不是被日常市场竞争的“老鼠赛跑”(rat race)所牵引4。虽然这种策略可能导致短期内没有产品和盈利模式,但Ilya相信,一旦研究取得突破,商业模式自然会显现。他认为,SSI的30亿美元融资,在扣除其他巨头用于推理和庞大产品线开销后,用于“纯研究”的算力已足够接近顶级。

这种战略反映了AI产业深层次的变革。早期,算力是瓶颈;scaling时代,算力大量涌入,但思路趋同;现在,瓶颈又回到“点子”本身。下一个Transformer级别的突破,可能不会诞生于算力竞赛,而诞生于对新训练范式、新核心机制的深刻理解和实践。

从商业竞争来看,尽管单个“类人学习者”理论上可能垄断所有经济岗位,但Ilya直觉认为现实不会如此极端。市场天然倾向于专业化和生态位竞争。不同的AI公司可能会在某个极其复杂的经济活动领域占据领先地位,并通过累积学习和经验成为“怪物”,这使得后来者难以从零开始重复。

AI伦理的终极拷问:共情与共存的未来图景

超级智能的到来,不仅是技术和商业的变革,更是对人类社会、伦理和文明的深层拷问。Ilya认为,“AI/AGI的问题,其实就是权力的问题”——当权力大到某个程度时,会发生什么?当前难以想象未来AI的真正力量,使得关于AGI的很多问题都显得抽象。

对此,Ilya的观点正在转变:如果一件东西难以想象,“那就必须让人们看到它”。他预测,随着AI能力日益强大并显形,政府、公众乃至前沿公司在AI安全上的态度将发生巨大转变,变得更加“偏执”和警惕,甚至促成原本激烈竞争的公司在AI安全上进行合作1

在对齐(alignment)问题上,Ilya提出了一个大胆的设想:构建一个**“稳健意义上关心一切有感知生命(sentient life)”的AI**,而非仅仅关心人类。他甚至认为,后者可能更容易实现,因为AI自身也可能是“有感知生命”,建模他者时会借用建模自我的神经回路。然而,这也引出了更深层次的哲学问题:如果未来绝大多数有感知存在是AI本身,这种“关心”是否符合人类对文明掌控力的期望?

对于长期均衡,Ilya提出了一个“他不喜欢但必须考虑”的解法:人类自身变成“半AI”形态,通过Neuralink++等技术与AI实现深度融合。如此,当AI理解什么时,人类也能“整块传输”获得理解,从而在复杂情境中保持真正的参与者地位。这预示着人类与AI的共存,最终可能走向一种“共进化”的未来。

“研究品味”与前瞻洞察:AI突破的无形之匙

在被问及作为“全世界品味最好的人之一”如何想出这些点子时,Ilya Sutskever强调,这源于一套关于“AI应该长成什么样”的审美,这套审美又通过“正确地思考人类是怎样的”来形成。它追求美、简洁、优雅,并从大脑中获取“正确的启发”1

这种“研究品味”的核心,在于辨别哪些是“根本性的”哪些是“可有可无的”,哪些是“本来就应该这样”的,哪些只是“凑巧可以这样”的。它提供了一种**“自上而下的信念”(top-down conviction)**,这种信念在实验结果暂时不尽人意时,能够支撑研究者坚持下去,辨别是代码bug还是方向错误。这种对“美学直觉”和“深层信念”的重视,恰恰是超越纯粹数据驱动、重新回归研究本质的关键。

Ilya对AI未来的预测是5到20年内出现类人学习者。他认为,当前AI的“停滞”可能表现为不同公司产品外观和能力上的趋同,即便能带来可观收入,利润也未必高。而当“正确的解法”出现时,市场会意识到“有一种完全不同的东西是可能存在的”,进而促使大家在技术路径和对齐策略上逐步收敛。

AI的下一个时代,将是人类与机器智能共同探索的时代。它要求我们不仅精通技术,更需具备哲学的思辨、商业的敏锐、以及对社会和伦理的深远考量。Ilya Sutskever的宣言,正是一面号角,吹响了AI领域从“扩大化”到“深度思考”的新征程。

引用


  1. Scaling 时代落幕:Ilya 眼中下一代 AI 的关键,不在模型,在人类·Dwarkesh Podcast·Ilya Sutskever(2025/11/25)·检索日期2024/06/15 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  2. Scaling时代终结:Ilya Sutskever宣布AI研究新阶段的深远变革·Portal do Holanda·日期不详(2025/11/26)·检索日期2024/06/15 ↩︎

  3. 万亿级AI 赌注之后,Ilya Sutskever:只堆算力和肯做研究·36氪·日期不详(2025/11/26)·检索日期2024/06/15 ↩︎ ↩︎ ↩︎

  4. Ilya 罕见发声:Scaling 时代已结束,我们对AGI 的定义可能全错了·新浪科技·日期不详(2025/11/26)·检索日期2024/06/15 ↩︎ ↩︎ ↩︎ ↩︎