TL;DR:
AI圈爆出“春晚级”大瓜:图灵奖大佬LeCun觉得硅谷都在靠堆大模型“骗自己”,怒骂当下路线是胡扯后卷铺盖离职创办AMI Labs;隔壁诺奖得主Hassabis则淡定表示:Scaling Law还能再战,5年后AGI见分晓。
刚刚,AI界的“顶流”们在社交媒体上直接开撕了。
一边是深度学习教父、图灵奖得主Yann LeCun,他不仅在播客中给大模型判了“死刑”,还身体力行地宣布离开效力12年的Meta,要在巴黎搞一场名为“世界模型”的技术革命1。
另一边则是刚拿了诺贝尔奖、DeepMind的掌门人Demis Hassabis,他坚信只要算力管够、数据管饱,Transformer这辆快车迟早能开到通用人工智能(AGI)的终点。
这场辩论翻译成通俗语言就是:LeCun觉得大家在死胡同里蹦迪,而Hassabis觉得只要蹦迪的音响(算力)够大,墙都能震塌。
技术大揭秘:LeCun为什么要给LLM“送终”?
在LeCun眼里,现在这股“万物皆可大模型”的风潮简直是集体幻觉。他直接用了一个词形容:胡扯(Rubbish)1。
“所谓通往超级智能的路线,无非就是继续堆模型、喂合成数据、再雇成千上万的人在后训练阶段手把手地‘教’系统……在我看来,这条路根本不可能走得通。” —— Yann LeCun 调侃式翻译:别折腾了,给模型“喂饭”搞不出真正的天才。
LeCun甚至掏出了数学武器来降维打击。他认为人类大脑其实是“极度偏科”的系统,在可能函数空间里,人类能理解的东西少得可怜。他计算出,相比于视觉任务可能存在的庞大函数空间,人类大脑能表示的数量级几乎可以忽略不计2。
简单来说,LeCun认为大模型就像个死记硬背的学霸,它虽然能背下整个图书馆,但并不理解物理世界是怎么运作的。你给它再多的合成数据,它也只是在概率的迷雾里打转。所以,他决定离职创办 AMI Labs,押注不需要语言中转、直接理解物理世界的“世界模型(World Models)”3。
擂台PK:Hassabis的“大力出奇迹”论
面对LeCun的数学攻势,诺奖得主Hassabis并没有被唬住。他认为LeCun把“普适”和“通用”搞混了2。
Hassabis的逻辑很硬:只要一个系统的架构是图灵完备的(比如Transformer),只要给它足够的时间、内存和数据,它理论上就能学习任何东西。
“人类大脑原本只是为了狩猎采集进化的,但我们现在能造波音747,能下赢顶尖国际象棋。这说明什么?说明‘通用性’才是核心。” —— Hassabis 潜台词:虽然我们大脑原本是用来抓兔子的,但不妨碍我们思考宇宙。
在他看来,Scaling Law(规模法则)依然是通往AGI的唯一真理。DeepMind这些年从AlphaGo到AlphaFold的战绩,就是他最有力的筹码。他甚至给出了时间表:5-10年后,真正的AGI就会降临2。
行业“地震”:谁在豪赌,谁在看戏?
这场争论之所以震动全网,是因为这不仅仅是学术上的“斗嘴”,更是真金白银的技术路线大豪赌。
- LeCun的孤注一掷:他离开Meta,带着35亿美元估值的AMI Labs远赴巴黎,就是为了逃离硅谷那种“LLM至上”的单一文化3。他想证明,不靠堆算力也能实现智能。
- 硅谷的集体加速:OpenAI、谷歌、Anthropic等巨头依然在Scaling Law的道路上狂奔,疯狂购买H100,疯狂挖掘电力4。
- 马斯克的“围观”:一向爱凑热闹的马斯克也转发站队Hassabis,认为Scaling Law才是硬道理。
这场神仙打架也折射出了当前AI产业的焦虑:当大模型的性能提升开始遭遇边际效应递减时,我们是该继续加码“氪金”堆算力,还是换个赛道重头再来?5
五年后,到底是LeCun带着他的“世界模型”衣锦还乡,还是Hassabis用AGI宣告Scaling Law的最终胜利?咱们吃瓜群众可以先搬好小板凳了。
引用
-
【人工智能】AGI是彻头彻尾的胡扯 | Yann Lecun | 硅谷已经陷入集体幻觉 | 离职Meta创办AMI · Best Partners TV · (2025/12/21) · 检索日期2025/12/24 ↩︎ ↩︎
-
图灵奖得主Yann LeCun vs DeepMind高管:大模型能不能通往AGI? · 知乎 · (2025/12/24) · 检索日期2025/12/24 ↩︎ ↩︎ ↩︎
-
直斥LLM是通往AGI的「死路」AI教父LeCun成立新公司死磕「世界模型」 · Yahoo Finance · (2025/12/24) · 检索日期2025/12/24 ↩︎ ↩︎
-
世界模型崛起,AI路线之争再起:空间智能成通用人工智能突破关键 · Jimo Studio · (2025/12/24) · 检索日期2025/12/24 ↩︎
-
世界模型崛起,AI路线之争喧嚣再起 · 澎湃新闻 · (2025/12/24) · 检索日期2025/12/24 ↩︎