AI前夜:理解生成式智能的深层特质、隐秘能耗与哲学悖论

温故智新AIGC实验室

TL;DR:

生成式AI已超越人类判别能力,其“幻觉”是固有特性而非缺陷,且正以惊人速度消耗巨量能源。我们对大模型内部运作机制知之甚少,而对“人工通用智能”(AGI)的盲目追求正引发哲学和商业上的双重误解。

过去一年,生成式人工智能(Generative AI)以其令人咋舌的创造力席卷全球,从艺术创作到代码生成,无不展现出超越人类想象的潜力。然而,在这股浪潮之下,一系列核心问题浮出水面,挑战着我们对AI的固有认知,并指引着其未来演进的关键方向。正如《麻省理工科技评论》资深编辑在SXSW伦敦站的演讲所揭示的五大关键趋势,这些趋势不仅是技术层面的突破与挑战,更是商业、社会乃至哲学层面的深刻变革前兆。1

超越人类感知:生成式AI的“智能”幻象

生成式AI的能力已达到令人警惕的水平。在音乐识别测试中,专业编辑团队对AI和人类作品的区分准确率甚至低于随机猜测。1这表明,在特定领域,AI的“生成”能力已高度逼真,足以模糊其与人类创造的界限。这种趋势正迅速从音乐蔓延至代码、机器人技术、蛋白质合成及视频制作等几乎所有媒介。谷歌DeepMind的Veo 3等视频生成工具所展示的惊人效果,预示着AI正深度嵌入到各类产品和行业流程中。

从MIT Technology Review的视角看,这种能力的**“幻象”**性质值得深究。它并非真正理解或感知,而是通过海量数据学习统计规律,以假乱真。Wired的哲学思辨则提醒我们,这种“欺骗”能力对人类认知和社会信任体系构成挑战:当虚假信息与现实高度吻合时,我们如何定义真实?商业上,TechCrunch会关注,这种无缝的生成能力极大拓宽了AI的应用边界和商业化场景,从内容生产效率到产品设计迭代,都将迎来颠覆。然而,与此同时,如何建立有效的内容溯源机制和确保信息真实性,将成为亟待解决的商业和社会伦理难题。

“幻觉”:缺陷还是特性?理解AI的本真

当AI编造信息时,我们称之为“幻觉”(Hallucination)。客服机器人提供虚假退款、律师提交引用虚构案例的法律文书、政府报告引用不存在的论文,这些并非偶然的“bug”。事实上,正如专家所言,生成式模型从设计之初就是为了“编造信息”而训练的。1它们的本质是基于训练数据生成具有统计学意义上合理性的新内容,而非求证和验证事实。

这在MIT Technology Review看来,是对技术原理的深刻洞察:“幻觉”并非待解决的缺陷,而是生成模型固有的特性。认识到这一点至关重要,因为它重塑了我们对AI能力的边界认知。Wired会进一步探讨,这种“幻觉”属性挑战了人类对“真理”的传统定义,迫使我们重新审视知识的来源和可信度。它可能引发一种新的“后真相”时代,其中由AI生成的“合理”叙事将与经验事实并行。从TechCrunch的商业角度来看,这意味着企业在部署生成式AI时,必须内化风险管理:在追求效率的同时,要建立严格的事实核查机制和责任追溯体系,尤其是在法律、金融、医疗等高风险领域,否则将面临巨大的信誉和法律风险。

攀升的能耗:AI繁荣背后的环境与经济重压

人工智能的快速普及,正带来巨大的能耗挑战。虽然训练大型模型的能耗惊人,但更关键的驱动因素是每日数亿用户的模型调用。ChatGPT每周拥有4亿活跃用户,成为全球第五大访问量网站,其庞大的用户基数使每次微小的调用能耗累积成天文数字。1

这种能耗的飙升,在MIT Technology Review看来,是AI可持续发展道路上的巨大障碍。科技公司纷纷在沙漠地带新建数据中心,改造电网,这不仅是对基础设施的巨大投资,也对全球能源供应和气候目标构成压力。TechCrunch会敏锐捕捉到,这正催生一个蓬勃的“AI基建”市场,包括高性能计算硬件、冷却技术、数据中心建设和清洁能源解决方案。但Wired则会思考更深层次的伦理问题:我们在追求“更高智能”的同时,是否加剧了地球的能源危机? 这是一种技术进步与环境责任之间的深刻张力,促使AI领域开始探索更节能的模型架构和计算范式。2

大模型工作原理之谜:不可控的“黑箱”智能

尽管我们知道如何构建和高效运行大语言模型(LLMs),但其内部“如何实现这些功能”仍是一个未解之谜。这些模型如同“来自外太空的机器”,科学家只能从外部不断试探其行为。1这是人类历史上首次,一款被数十亿人使用的核心技术,其工作原理却如此不为人知。

这种“黑箱”特性对MIT Technology Review而言,意味着在完全理解其内部机制之前,我们无法精确预知AI的能力边界、行为模式,也难以从根本上控制其输出,包括“幻觉”的产生。Wired则会引入哲学上的追问:我们是否正在创造一种我们无法完全理解和掌控的“智能”? 这种未知性引发了对AI安全、可解释性和伦理责任的深层担忧。TechCrunch的视角则会聚焦于其商业风险:企业在关键业务中部署无法解释决策过程的AI,将面临合规性、审计和潜在责任问题,这可能阻碍AI在某些敏感行业的深度应用。

AGI迷思:一场被商业叙事裹挟的“信仰”之战

长期以来,人工通用智能(AGI)被视为遥远且边缘的话题。然而,随着AI技术进步和商业化价值飙升,严肃的从业者也开始声称AGI“即将实现”。AGI通常被定义为能在广泛认知任务中达到人类水平的AI,但这个定义本身模糊不清,缺乏可衡量标准。1其本质上,已成为一种“比当前更先进的AI”的代名词。

Wired的批判性思维在此处展现得淋漓尽致:AGI叙事更多是一种文化战争,是科技乐观主义者与怀疑论者之间的信仰冲突。这种对AI发展的“绝对信念”缺乏足够证据支撑,它将持续进步的趋势等同于必然达到某种“通用智能”的终点。TechCrunch会指出,AGI叙事很大程度上是资本市场和商业竞争的产物,它制造了巨大的“期望泡沫”,吸引投资、抬高估值。然而,MIT Technology Review则会强调,脱离严谨的科学定义和可验证的进步路径,这种“AGI宣言”不仅无益于技术发展,反而可能导致资源错配和公众期望管理失调。真正的突破,往往发生在脚踏实地的研究和对核心问题的深刻理解之中,而非对模糊终点的盲目追逐。3

引用


  1. 生成式AI已骗过人类判断,资深编辑解读当下AI五大关键趋势·36氪·元宇宙之心MetaverseHub (2025/7/24)·检索日期2025/7/24 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  2. 从大语言模型到幻觉:常见AI 术语简单指南·至顶网 (2025/5/26)·检索日期2025/7/24 ↩︎

  3. 独家对话AGI模型“之父” Marcus Hutter:AI 能完成人类半数的工作·InfoQ (未知日期)·检索日期2025/7/24 ↩︎