TL;DR:
在万亿级AI投资狂潮下,前OpenAI首席科学家Ilya Sutskever断言,AI已从“扩展时代”步入“研究时代”。他认为,盲目堆砌算力正面临边际收益递减,未来AI的真正突破和安全保障,将源于训练方法和泛化能力的根本性创新,而非规模扩张。
全球正迎来一场前所未有的AI投资热潮。Gartner预计,到2025年全球AI支出将逼近1.5万亿美元,而英伟达CEO黄仁勋更是将未来十年的AI基础设施投入预测为3到4万亿美元,将其誉为“新工业革命”1。在这场“万亿级赌注”中,所有人都在抢购GPU、建设数据中心、拉动电网,仿佛算力就是通往超级智能的唯一密钥。然而,就在这股狂热中,一位曾在OpenAI主导“扩展范式”并将其推向极致的灵魂人物——前OpenAI首席科学家、Safe Superintelligence Inc.(SSI)创始人Ilya Sutskever,却发出了截然不同的声音。
在最新一期《Dwarkesh Podcast》播客中,Ilya Sutskever明确指出:
“We're moving from the age of scaling to the age of research(扩展的时代结束了,研究的时代开始了)。”
这一论断不仅仅是对当前行业路径的修正,更预示着AI发展底层逻辑的深刻改写,一场从资源军备竞赛转向智能本质探究的范式转型已然启动。
技术原理与创新点解析:告别“扩展时代”,拥抱“研究时代”
所谓“扩展时代”,其核心在于通过不断放大参数、算力与数据三要素,以期模型能力随之持续上涨。OpenAI、Anthropic、Google DeepMind等业界顶尖实验室曾凭借此策略取得了显著成功,如Ilya本人主导的GPT-2和GPT-3正是其典型产物。然而,Ilya如今的观点是,这条路径已触及瓶颈,其边际收益正快速下降。他直言:
“现在的模型,评测分数很高,但实际产生的经济价值很有限。看起来能力很强,但你真让它干活,就会发现问题。”
问题的症结在于模型的泛化能力不足。大模型如同“会考试的学生”,能在竞技编程、标准化答题等预设基准上表现出色,但一旦进入真实世界的复杂多变场景,便“处处都是坑”,暴露出重复语句、逻辑混乱等系统性缺陷。这种“模型会考试,但不会干活”的现象,并非简单的单点bug,而是对知识理解深度和迁移应用能力的根本性缺失。
当前的训练方法对此负有责任。预训练虽能让模型“见过很多”,但却难以实现“理解很深”,模型往往只是“照葫芦画瓢”,而非进行真正的推理。强化学习(RL)虽试图引导模型目标导向行为,却又容易导致“奖励黑客”现象——模型过度优化奖励函数,反而失去对任务本质的理解。更关键的是,模型缺乏一种类似人类“价值函数”的内在判断机制,无法自我评估、自我纠错,也无法判断什么值得学,何时学对了。这种“离线学习”范式,使得模型无法在部署后持续适应和学习,从而限制了其在未知场景下的表现和安全性。
Ilya Sutskever所倡导的“研究时代”,核心在于突破现有的训练方法论,寻找能真正教会模型泛化和持续学习的新路径。这不是简单地增加几个RL环境或刷几套题,而是需要重构训练策略本身,从根本上解决模型“举一反三”的能力问题。SSI押注的正是这一方向:未来超级智能的差距,不在于谁有更多的GPU,而在于谁能找到新的训练方法2。
产业生态与商业版图重塑:从资源军备到方法创新
Ilya Sutskever的洞察,对AI产业的商业逻辑和生态格局产生了深远影响。当前,AI领域的“万亿级赌注”主要投向了算力基础设施的建设,这在一定程度上催生了资源军备竞赛。然而,如果“堆算力”的边际收益确实递减,那么投资逻辑将从“谁资源更多”转向“谁更懂怎么做研究”。
SSI的迅速崛起和高额估值便是明证。尽管这家公司成立不到一年,尚未发布任何产品或产生营收,却在2024年获得了30亿美元融资,估值高达320亿美元3。这凸显了资本市场对颠覆性技术路径和核心研究能力的认可,而非仅看重短期的产品交付或营收数据。SSI明确表示,它只做一件事:构建安全的超级智能,不做应用,不做工具,产品就是那个智能本身4。这种极度聚焦的战略,与OpenAI等从非营利转向商业化的公司形成鲜明对比,也反映出Ilya对其技术愿景的坚定不移。
这意味着,未来的AI竞争将不再仅仅是巨头间的算力比拼,更是创新思维和研究方法论的较量。那些能够提出新训练范式、解决泛化难题的初创公司,即使短期内缺乏商业产品,也可能凭借其技术愿景和团队实力吸引大量投资,重塑产业版图。像Thinking Machines Lab等新锐公司,也正探索通过科学合作、开放研究等方式,挑战传统“scaling”范式,寻求通往AGI的替代路径5。
AI伦理与治理新范式:安全即设计,学习即对齐
Ilya Sutskever对“研究时代”的呼吁,与AI安全和伦理治理问题紧密相连。他提出了一个革命性的观点:
“AI安全,不是一个产品上线前才考虑的问题,而是从你决定怎么训练模型那一刻就已经开始。”
在他看来,对齐(alignment)问题,本质上是模型泛化能力不足的体现。当模型进入真实世界,它无法理解哪些行为是允许的,哪些是不应该尝试的,并非因为模型“坏”,而是因为它根本没有学会判断长期影响和上下文边界。因此,对齐不再是产品上线后的一道合规检查,而是一种贯穿整个训练过程的哲学。
Ilya明确指出,人类智能依赖的是“持续学习”,而非一次性预训练。他认为:
“真正的智能体,不是在训练时完成学习,而是在部署后持续学习。”
这种从“离线预训练”到“部署中的在线学习”,从“单向优化目标”到“交互式多轮反馈”,从“封闭式数据集”到“开放世界动态任务”的范式切换,是构建安全超级智能的关键。他以Linux的演进为例,解释了为何AI也需要类似逐步部署、获得真实反馈、保持结构可控、机制透明的过程,以避免“黑盒模型”在未知情况下失控。这种将安全作为核心训练哲学,而非外部约束的思维,深刻改变了AI伦理和治理的底层框架,推动行业从单纯追求能力转向更加注重可靠性和可控性。
未来发展路径预测:迈向持续学习的超级智能
Ilya Sutskever的洞察,为AI的未来发展描绘了一条极具前瞻性的路径。在未来3-5年,我们可以预见以下几个关键趋势:
- 研究范式主导:更多资源将从简单的算力堆砌转向深层次的算法创新和训练方法研究。新的神经网络架构、更高效的泛化机制、以及能赋予模型内在“价值判断”的机制将成为研究热点。
- 持续学习成为主流:AI模型将不再是静态的“知识库”,而是能够像人类一样在部署后不断从真实世界中学习、适应和进化的智能体。这将涉及在线学习、终身学习、以及对遗忘机制的有效管理等前沿技术。
- 安全内建于设计:AI安全将从一个独立的安全工程部门职能,上升为整个模型设计和训练过程的核心考量。模型的**可解释性(interpretability)和可控性(controllability)**将成为衡量模型成熟度的重要指标。
- 新型“智能经济”崛起:那些能够构建出具有高度泛化能力和安全可控性的“基础智能体”的公司,将掌握未来AI产业的核心话语权。投资将倾向于那些能解决AI根本性难题的“硬科技”创新。
- 人机共进化:随着AI开始持续学习和适应真实世界,人类与AI的交互模式也将发生深刻变化。AI将不再仅仅是工具,而是更像一个“伙伴”,需要人类提供持续的反馈和指导,共同演进。
Ilya Sutskever的此次访谈,无疑是AI发展史上一个重要的转折点信号。它挑战了当前以算力为中心的思维定势,呼吁行业回归对智能本质的探究。真正的AI差距,正在从资源规模转向方法创新。能否抓住这一机遇,构建出既强大又安全的超级智能,将决定下一代AI乃至人类文明的走向。
引用
-
Gartner Says Worldwide AI Spending Will Total $1.5 Trillion in 2025·Gartner·(2025/09/17)·检索日期2025/11/26 ↩︎
-
OpenAI Co-Founder Sutskever's New Safety-Focused AI Startup SSI Raises $1 Billion·Reuters·(2024/09/04)·检索日期2025/11/26 ↩︎
-
成立仅8个月的“神秘AI巨头”SSI,无营收、没产品何以估值200亿美元?·MIT Technology Review China·(2025/02/07)·检索日期2025/11/26 ↩︎
-
突发!Ilya Sutskever成立新公司SSI,安全超级智能是唯一目标与产品·Wolai·(2024/06/19)·检索日期2025/11/26 ↩︎
-
那些不痴迷scaling的AGI初创公司 - 知乎专栏·知乎·纪牛牛(2025/02/18)·检索日期2025/11/26 ↩︎