伊利亚·苏茨克维:从OpenAI到SSI,通往超级智能的独行者

温故智新AIGC实验室

TL;DR:

伊利亚·苏茨克维,这位OpenAI的联合创始人兼前首席科学家,如今在SSI公司开辟新径,预言AGI将在5到20年内降临。他深刻批判了AI发展的“规模化”时代已终结,呼吁回归以“价值函数”和“泛化能力”为核心的研究时代,并提出构建“关心有情生命”的超级智能,以确保未来AI的安全与对齐。他的独特愿景和研究品味,正在引领AI探索一条不同寻常的路径。

在AI浪潮汹涌的今日,伊利亚·苏茨克维(Ilya Sutskever)这个名字,本身就代表着传奇与争议。作为深度学习领域的巨匠,他曾是OpenAI的联合创始人兼首席科学家,亲手缔造了GPT系列模型的神话,却又在公司内部分歧之际,选择离开,创立了全新的超级智能公司Safe Superintelligence(SSI)。他的每一步,都牵动着全球AI界的神经。

在与知名播客主持人德瓦克什·帕特尔(Devakshi Patel)长达1.5小时的深度对谈中,这位AI先驱首次系统阐释了SSI的宏图,以及他对AGI(通用人工智能)未来走向的颠覆性预判:人类级别的AGI最快5年,最晚20年即可实现 1。他的观点不仅是对现状的深刻反思,更是对未来路径的战略性指引。

告别“规模化”:从预训练到泛化之谜

苏茨克维犀利地指出,当前的AI模型存在一种令人费解的“锯齿状”落差:它们在评估测试中表现优异,但在实际应用中却常犯低级错误,甚至反复“翻车”2。他形象地将这些模型比作“应试专家”,通过海量数据填鸭式训练,成为答题高手,却难以将所学知识灵活泛化到新任务上。这种现象不仅让经济贡献明显滞后,更暴露出预训练的深层局限。

“让我举个具体例子:假设你用氛围编程(vibe coding)完成某项任务时遇到一个错误,然后让模型修复,它会遵从,但在修复过程中又引入了新错误。当你指出新错误后,它再次认错,却把原来的错误又带回来了。这种循环往复的情况时有发生。”他皱着眉,眼中闪烁着对这种“异常”的困惑。

这种现象,在他看来,不仅暴露了预训练的局限性,更预示着一个时代的终结:单纯堆砌数据与算力的“规模化”红利已见顶。苏茨克维认为,从2012年到2020年是“研究时代”,2020年到2025年是“规模化时代”,而现在,我们正重新迈入一个“研究时代”,只是拥有了更强大的计算资源3

“我们已经把规模做得很大。问题变成了:‘规模这么大,如果你再加100倍,结果会完全不同吗?’肯定会不同,但我认为人们并没有真正相信只要把规模扩大100倍,一切就会发生巨大变化。” 他强调,未来的突破不再仅仅依赖于计算资源的堆叠,而是需要颠覆性的研究理念和方法。

真正的挑战在于“泛化之谜”:为何AI学习如此缓慢而笨拙,需要海量数据,而人类却能以惊人的样本效率掌握复杂技能?人类在语言、数学和编程等领域表现出的高效学习能力,并非完全依赖于复杂的先验知识,而可能源于某种更为高效的学习机制,一种机器学习算法中的“优势”。他相信,揭开泛化之谜,才是通往通用人工智能的康庄大道。

价值函数:AI的“情绪”与效率

在探讨泛化之谜时,苏茨克维提出了一个极具启发性的观点:价值函数(Value Function)或许是AI实现高效、鲁棒学习的关键,它在AI系统中扮演的角色,类似于人类的“情绪系统”4

他引用了一个令人心悸的脑损伤案例:一位患者因中风或事故破坏了情绪处理能力,虽然仍然善于言辞,能解决一些小难题,在测试中看起来完全正常,但感觉不到悲伤、愤怒或活力。结果,他在做任何决定时都变得极其糟糕,甚至穿哪双袜子都要花上几个小时,还会做出非常糟糕的财务决策。这让苏茨克维深刻认识到,人类内在的情感,即我们对好坏、对错的直觉判断,在引导我们有效行动中扮演着至关重要的角色。

“这说明了我们内在的情感在使我们成为可行的智能体方面扮演了重要角色。” 苏茨克维强调,这种内在的情感反馈,能让人类在学习过程中不断自我纠正,提高效率。

在强化学习中,价值函数能够提供即时反馈,就像下棋时你丢了一个棋子,会立刻知道自己犯了错,而无需等到对局结束。这能极大提升AI的学习效率,让模型在尝试错误方向时能及时“止损”,调整策略。他相信深度学习终将解决这一难题,让AI拥有像人类一样强大的内在价值感知能力。而这种内在的“情绪系统”,将是AI实现真正智能与鲁棒性的核心。

SSI的野望:直通超级智能与伦理新解

苏茨克维领导的SSI,其核心野心在于“直通超级智能”(Safe Superintelligence),这与OpenAI等公司“渐进式部署”的策略形成鲜明对比。他坦言,这种策略的优点在于完全不受日常市场竞争的影响,能够心无旁骛地专注于最根本的研究突破。

“如果你能说‘我们将与所有这些隔离开来,只专注于研究,直到我们完全准备好才推出’,这是一个很好的策略。” 他直言,SSI选择不急于商业化,正是为了避免日常市场竞争的干扰,专注于最根本的研究突破。然而,他也承认,让AI在全球范围内发挥作用并影响世界,是其公开存在的价值所在,这使得未来计划可能需要调整,以便更广泛地“传播AI”,让世界亲眼看到其潜力。

更引人深思的是,苏茨克维对AI安全与对齐问题提出了全新的愿景。他认为,“AGI”和“预训练”这些术语,在某种程度上限制了人们的思维。真正的AGI并非一个“完成品”,而是一个能够持续学习的“超级智能的15岁少年”——聪明、学习迅速、动力强,但仍需在真实环境中不断学习与试错。部署本身就是学习过程,而非简单推出一个“完整成品”。

他大胆预测,最终的AI系统应该被构建为“关心有情生命的AI”,因为AI本身将会是有情感的生物。他认为,这种更具情感和同理心的AI,比仅仅关心人类的AI更为稳健,更容易实现对齐,从而减少潜在的危险性。

“我相信,我们应该专注于构建一种‘关心有情生命的AI’,因为AI本身将会是有情感的生物。这种具有情感和同理心的AI比仅仅关心人类的AI更为稳健,更容易实现。”他坚定地指出,这种“关心有情生命”的AI,或许是实现长期AI对齐和安全发展的关键路径。

谈及SSI的资源与前景,苏茨克维自信地表示,尽管没有一些巨头那样庞大的实验开支,但SSI已筹集30亿美元,并且专注于研究,而不是推理和产品开发,这使得他们拥有足够的计算资源去验证独特的研究方向。

“我们已经拥有足够的计算资源,能够证明我们的研究方向是正确的,足以让我们自己和其他人相信。” 他强调,在“研究时代”中,重要的是找到创新的想法并加以验证,而非一味追求最大规模的计算。

研究品味与AGI的倒计时

被誉为拥有“最好研究品味”的苏茨克维,分享了他多年来指导AI研究的“美学”原则:它必须兼具美、简洁、优雅,并对大脑机制有正确的借鉴5。从人工神经元的概念直接受到大脑结构的启发,到分布式表示、从经验中学习,他追求的是一种直指事物本质的简洁之美。

他认为,真正的研究品味,在于能够识别哪些是本质的,哪些是细节。

“没有丑陋的东西容身之地,它必须美、简洁、优雅,并且与大脑的启发一致。所有这些因素要同时存在。它们同时存在的程度,直接决定了你对一个自上而下的信念的信心。”

这种“自上而下的信念”,使得他在实验结果与直觉相悖时,仍能坚持不懈地调试与探索。它是一种内心的指南针,告诉研究者何时需要坚持,何时需要调整方向。

尽管面临诸多不确定性和挑战,苏茨克维对AGI的到来充满信心,并给出了明确的时间表:5到20年。他相信,随着AI能力不断增强,世界将发生深刻变化,各方对AI安全和对齐的策略也将趋同。

当被问及如果某个公司率先获得类人学习系统,是否会独占所有收益时,苏茨克维持谨慎乐观态度。他认为实际情况不会如此集中。从过往AI的发展来看,一家公司取得突破后,另一家公司会迅速追赶,并在一段时间后做出相近的成果,随后双方在市场上竞争并压低价格。此外,通过专业化分工,许多“狭窄但极其强大”的超级智能将在不同领域发挥作用,形成一个多元化的AI生态。

他总结道,“变化是唯一的不变”,人类文明的演变,总是伴随着结构的出现与消逝。最终,人类可能通过某种形式与AI深度融合,成为“半AI生物”,才能实现真正的长期均衡。这或许是对未来人机共生状态最深远的想象,也是苏茨克维在SSI致力于实现的终极愿景。

引用


  1. 离开OpenAI后,苏茨克维1.5小时长谈:AGI最快5年实现 · 36氪 · (2025/11/26) · 检索日期2025/11/27 ↩︎

  2. 离开OpenAI后,苏茨克维1.5小时长谈:AGI最快5年实现 · 腾讯网 · 金鹿 (2025/11/26) · 检索日期2025/11/27 ↩︎

  3. 苏茨克维2万字深度访谈|当所有人都在卷算力时 · 网易 · (2025/11/26) · 检索日期2025/11/27 ↩︎

  4. llya最新判断:Scaling Laws逼近极限,AI暴力美学终结|伊利亚 · 网易 · (2025/11/26) · 检索日期2025/11/27 ↩︎

  5. Ilya 罕见发声:Scaling 时代已结束,我们对AGI 的定义可能全错了 · 爱范儿 · (2025/11/26) · 检索日期2025/11/27 ↩︎