TL;DR:
在关于超级智能的辩论中,埃里克·施密特预见其三年内到来并重塑全球权力与财富,而李飞飞则强调AI在创造性智能上的根本不足,并致力于通过“世界模型”重构现实。这场争论不仅关乎AI的定义与能力边界,更深层地探讨了技术进步带来的财富分配不均、人类角色定位的哲学困境,以及我们如何在技术洪流中保持主动性。
2025年10月29日,在沙特首都利雅得的一场全球领袖峰会上,人工智能领域的两位思想巨擘——斯坦福AI实验室创始人李飞飞与前谷歌CEO埃里克·施密特,展开了一场关于“超级智能”未来的激辩。这场对话并非简单的未来畅想,而是围绕AI极限、财富重构与人类命运的真实交锋,揭示了AI时代我们面临的技术、商业、社会与哲学层面的多重挑战与机遇。施密特激进预测超级智能三年内将至,李飞飞则冷静反问AI能否成为牛顿,其核心分歧不仅在于时间线,更在于对“智能”本质的不同理解和对未来社会影响的深远考量。
红线与幻象:超级智能的定义之争
施密特将超级智能定义为“比地球上所有人类加在一起还要聪明的存在”,一种“总和级别的智慧”1。在他看来,这不再是“会不会来”,而是“多快到来”,并大胆预测三到四年内可能实现。这种观点侧重于AI能力的“堆积效应”:当知识量和处理能力累积到极致,智能便会自然涌现并超越人类。
然而,李飞飞对此提出了深刻质疑。她认为,尽管AI在掌握多语言、处理海量信息等特定能力上已超越人类,但真正的智能远非如此。她的核心反问是:“AI能成为牛顿、爱因斯坦或毕加索吗?”1这直指AI目前缺乏的**“创造力起点”**——在混沌中发现规律、提出全新问题、进行跨领域联想和“顿悟”的能力。她指出,即使将1902年所有的科学知识输入AI,它也无法自主推导出相对论;给予AI所有行星数据,它也无法像牛顿一样发现万有引力1。现阶段的AI,在进行复杂推理时,无法像人类那样进行自我反馈和连续推导,它更像一个高效的“超级助理”,而非能洞察未知的“先知”。
“人类最了不起的能力,是能提出别人没问过的问题。”——李飞飞1
这场定义之争并非空谈,它决定了我们是在创造一个高级“工具”,还是在孕育一个可能重塑物种定义,甚至威胁人类主导地位的“新物种”1。施密特坚信技术突破将迅速跨越那条线,而李飞飞则警示我们,切勿过早自满于对智能本质的理解。斯坦福大学发布的《2024年人工智能指数报告》也印证了这一点:AI在某些特定任务上表现卓越,但在数学竞赛、视觉常识推理等更复杂的任务上仍落后于人类,其研发基准测试的挑战性也在不断增加2。这表明,对通用智能或超级智能的路径,学界和业界仍存在巨大分歧。
效率的悖论:AI经济红利与财富虹吸效应
如果超级智能真的来临,其带来的财富将如何分配?主持人提出了“后稀缺社会”的可能性,即AI普及后医疗、教育等服务免费化。但施密特泼了一盆冷水:“这是个非常美好的想法,但现实可能没那么平均。”1他直言AI带来的好处很可能集中在少数人手中,这源于经济学中的“网络效应”:越早部署、越有资源的一方,越容易将优势转化为垄断。
AI能够显著提升效率,无论是沙特石油网络的优化,还是药物开发的加速,都意味着巨大的经济收益。然而,施密特指出,这些收益将集中于少数国家、公司和资本持有者。李飞飞也认同效率提升,但她强调:“效率不等于共同繁荣。”她提醒,技术本身并不会主动解决分配问题1。拥有购买力和使用能力成为享受AI红利的真正门槛。
《2024年人工智能指数报告》也揭示了类似的趋势:尽管生成式AI的私人投资额呈井喷式增长(2023年增长9倍)2,但AI领域的整体私人投资却有所下降。同时,AI模型的训练成本持续攀升,如OpenAI的GPT-4训练成本高达7800万美元,谷歌Gemini更是达到1.91亿美元2,这使得AI的前沿研究和应用成为资本密集型游戏。这些都加剧了资源向头部集中。施密特点名非洲面临被AI革命远远甩开的风险,而即使是欧洲国家,也因能源和资金问题难以负担AI数据中心的建设。这要求各国必须投资人才、技术和教育生态,而非坐等红利。AI不送福利,唯有主动参与才能受益,不行动者将被时代远远抛下。
人类角色再定位:搭档、主导与能动性
AI能力边界的拓展,也必然引发对人类在未来世界中角色的重新审视。如果AI能完成几乎所有的科学研究、经济决策甚至艺术创作,人类还剩下什么?
施密特持“人类和AI组成搭档组合”的观点。他认为,真正的强大在于人类与AI的协同,而非AI的单打独斗1。他以F1赛车为例:即使机器人能开得更快,人类依然渴望看到真人挑战极限,因为人类的好奇心、审美和创造冲动是不可替代的。他甚至预见未来可能出现人类与AI协同完成任务的比赛,而非纯粹的机器竞技。
李飞飞则表达了更为强烈的情绪和更清晰的底线:“我非常担心,在超级智能的讨论中,我们会忘记人类的价值。”她强调了**“尊严和能动性”**这两个关键词,无论技术如何发展,人类都必须始终是世界的中心,不能被边缘化1。即使AI再聪明、再全面,决定权也必须握在人手里。这触及了哲学层面的核心:谁来定义未来?是AI,还是我们自己?这与《2024年人工智能指数报告》中提及的AI引发社会负面情绪和伦理问题相呼应,报告显示,全球范围内对AI发展不乐观的受访者比例大幅上升,多国也正在积极推动AI监管立法,以应对数据隐私、算法偏见和虚假信息等挑战2。
空间智能的崛起:AI构建现实的下一前沿
在对超级智能的宏大辩论之外,李飞飞正通过具体实践探索AI进入我们生活的形态,这正是她创立的World Labs公司所关注的“世界模型”领域。针对“未来是否都搬进虚拟世界”的提问,李飞飞肯定地回答:“是的,我们未来的生活,会更像一个多元宇宙。不是离开现实,而是现实和虚拟会完全混在一起。”1
World Labs致力于构建大型世界模型,专注训练AI理解空间、物理和交互,如同人类的空间智能一般。其最新成果RTFM(Real-Time Frame Model)能够实时生成3D场景,并记忆自己构建的世界1。这超越了传统的语言模型,将AI从“回答者”进化为“构建者”,最终可能成为**“世界的重组者”**。
这种“世界模型”的应用场景广阔而深远:
- 医疗手术训练:医生可在AI构建的虚拟手术空间中反复演练,降低真实手术风险。
- 教育场景:学生能“走进”AI生成的古代城市,沉浸式学习历史。
- 城市规划:建筑师可在AI中预演新城区的各项功能,优化设计。
这并非逃避现实,而是通过AI的力量重新建构现实。施密特也认同这一方向,甚至预测未来AI可能自主推动物理世界的转型,例如“自己设计一种新方式来获取更多能源”1。这代表了AI从认知智能向具身智能的重要跃迁,与《2024年人工智能指数报告》中多模态AI和AI推动科学技术突破的趋势不谋而合2。它预示着一个物理世界与数字世界深度融合的未来,AI将不仅处理信息,更能塑造我们的生活环境和体验。
结语:参与者抑或旁观者?
李飞飞与施密特关于超级智能“3年内到来”与“远未开始”的争议,本质上是关于AI能力边界、人类中心地位以及未来主导权的根本性分歧。这不仅关乎技术发展速度的预判,更涉及对智能本质的哲学拷问、对社会财富分配机制的批判性思考以及对人类文明进程的深层影响。
从技术层面看,虽然大模型的涌现能力令人惊叹,但其在复杂推理、原创性发现和跨领域联想上的局限性依然明显,正如李飞飞所言,AI还无法提出“别人没问过的问题”。从商业和经济视角,AI带来的效率红利无疑是巨大的,但其“网络效应”和高昂的训练成本正加剧全球财富和技术能力的集中化,对落后地区和国家构成严峻挑战。从社会和伦理层面,人类如何保持尊严和能动性,确保AI作为工具而非主宰,以及如何构建公平合理的AI治理体系,是摆在全人类面前的宏大命题。
无论超级智能何时到来,有一点是确定的:我们正站在一个技术、社会和哲学交汇的转折点。人工智能正从文字处理进化到世界构建,从回答问题进化到重塑现实。在这个过程中,是选择被动旁观,还是主动参与,投资于人才、技术和生态,将决定我们能否在新纪元中把握主动权。