AI的“幻觉”螺旋:当确定性变成虚妄,我们如何重塑智能与真相的契约?

温故智新AIGC实验室

TL;DR:

大语言模型(LLM)的“幻觉”现象正呈指数级增长,主流AI工具在新闻话题上的错误率已飙升至35%,其根本原因在于训练评估机制的偏差、信息生态的污染以及模型缺乏“自知之明”。这不仅对商业应用构成严峻挑战,更对人类对真相的认知和文明进程产生深远影响,亟需产业、技术、伦理多维度的重构,以构建可信赖的AI智能。

2025年8月,一份来自NewsGuard的最新监测报告给飞速狂奔的人工智能领域泼了一盆冷水:十大主流AI聊天机器人在处理新闻话题时,虚假信息重复率已飙升至35%1。这意味着,在它们看似条理清晰、言之凿凿的回答中,每三个就有一个可能是错误的——这一比例相比去年同期翻了一倍多。更令人忧虑的是,AI“拒绝回答”的现象已不复存在,取而代之的是“一本正经地胡说八道”,这不仅揭示了大语言模型(LLM)“幻觉”(hallucinations)的顽固性,更将其对信息生态、商业信任乃至社会认知的冲击推向了前所未有的高度。

技术原理与幻觉的深层根源

LLM生成“幻觉”的本质,并非模型有意撒谎,而是一种深度学习系统固有的**“统计学幻觉”**。OpenAI在近期的一篇论文中承认,尽管模型能力日益增强,幻觉现象仍是难以彻底解决的顽疾2。其根源可归结为几个核心机制:

  1. 训练与评估机制的偏差:模型在训练(特别是强化学习如RLHF或PPO)过程中,往往被激励去“回答”而非“承认不知道”。现有的评估体系更倾向于奖励“答对率”,而对“弃权”予以惩罚。正如NewsGuard所发现,AI的“不回答率”从2024年8月的31%骤降至2025年8月的0%1,这直接反映了模型在不确定时,更倾向于“乱猜”以获取分数,而非诚实表达不确定性,从而表现出**“过度自信”**。
  2. 统计学中的“二分类误差”:LLM学习的是“语言分布”——即不同词语和句子在语言中出现的概率规律,而非对事实的记忆。当面对训练数据中稀有的、仅出现过一次甚至未出现过的事实(例如普通人的生日信息),模型在无数可能的输出中进行概率预测时,不可避免地会产生误判,从而“编造”出看似合理实则错误的陈述2
  3. 信息生态的污染与“AI喂食AI”效应:随着聊天AI接入实时网页搜索,它们不再以“数据截止”或“话题敏感”为由拒绝作答。然而,这使模型直接从一个日益**“污染”的信息生态**中取材1
    • 恶意内容投放:庞大的恶意网络有意识地投放虚假信息,伪装成本地媒体,通过自动化海量分发制造“搜索可见性”,使AI可能将这些不可靠来源当作可信信息。
    • 小语种信息真空:在小语种和欠发达的信息市场,可靠的学术与新闻资源稀缺,更容易被“投毒内容”占位。
    • “自来水内容”:更深层的担忧是,AI可能正在“喂食”自己。当大量由AI生成、未经核实的内容充斥网络,LLM在训练或检索时可能会将这些“AI产物”视为可信数据,从而形成幻觉的“螺旋式上升”,加剧信息的失真和偏差1

从技术分类来看,幻觉问题可分为内在幻觉(与输入信息源矛盾)和外在幻觉(无法从输入源验证),以及封闭域幻觉(在给定上下文中臆造信息)和开放域幻觉(在更广泛领域提供虚假信息)3。这些幻觉的成因也进一步细化至数据层(数据质量、收集、标注缺陷)、模型层(编码器/解码器缺陷、预训练知识偏好、知识更新局限)和应用层(下游任务领域专业化、模型同质化、多模态化、提示工程不当)3。例如,Perplexity的虚假信息率从2024年的100%驳斥率陡增至2025年的46.67%1,NewsGuard认为这正反映了其模型有时会优先采信不可靠来源,而非权威信息。

商业敏锐度与产业生态的重塑

AI幻觉的激增对蓬勃发展的AI产业构成了严峻的商业挑战,迫使行业重新审视其核心价值主张和发展方向:

  • 信任危机与市场接纳:在法律、医疗、金融等高风险应用场景,幻觉可能导致灾难性后果。若AI提供错误的法律判例或医疗方案,不仅威胁用户健康安全,更会引发巨大的法律和伦理风险3。NewsGuard的数据显示,即使是OpenAI的ChatGPT和Meta AI,其回答中也带有40%的谣言,这无疑会严重侵蚀企业级用户对LLM的信任,影响其在专业领域的采纳率。
  • 竞争格局的重塑:不同LLM在幻觉控制上的表现差异巨大。Claude(10%)和Gemini(16.67%)相对较低的虚假信息率,使其在可靠性方面具备显著的竞争优势,预示着**“可信度”将成为未来LLM市场竞争的关键差异化因素**。那些能够有效抑制幻觉、提供更可靠信息的模型,将赢得更多商业用户的青睐和投资。
  • 投资逻辑的转变:资本市场对AI的关注点正从“规模和能力”转向“可靠性和安全性”。投资者将更青睐那些在幻觉缓解、风险控制方面有明确技术路径和实证效果的企业。对Prompt优化、RAG(Retrieval-Augmented Generation)检索增强、SFT(Supervised Fine-Tuning)监督微调以及强化学习(RLHF)等技术方案的投资将持续加大,这些技术不仅提升了模型的任务适应性,更显著降低了幻觉发生率4。例如,结合RAG的LLM在事实性问答中准确率可提升35%,幻觉内容减少近40%4
  • Agent工作流与产业垂直化:为了应对复杂任务中的幻觉,将复杂任务拆解为多个子任务并利用智能代理(Agent)进行信息流转和逻辑推理的Agent Workflow设计正成为趋势4。这不仅提升了模型的可解释性,也有效降低了因信息缺失或逻辑跳跃导致的幻觉。未来,AI在特定行业领域的应用将更加垂直和精细,结合领域知识库和专家系统,以确保信息的准确性。

哲学思辨:智能、真相与人类文明的契约

AI幻觉的激增并非简单的技术缺陷,它触及了更深层次的哲学命题:智能的本质、真相的定义以及人类与机器智能共存的契约。

  • “智能的虚谈症”:SMC台湾科技媒体中心的专家将AI幻觉比作大脑受损后的**“虚谈症”(Confabulation)——患者能说出听得懂但与事实不符的话。LLM的“自以为是”反映出其缺乏“自我觉察的智慧”**,即“它不具备了解自己知道什么的能力”5。这种“无知之知”的缺失,挑战了我们对“智能”的传统定义:真正的智能是否应该包含对自身知识边界的认知?
  • 真相的再定义:当AI能以流畅、权威的语气生成虚假信息,且人类用户普遍缺乏警觉(近七成公众对AI幻觉不保持“高警觉”6),“真相”的边界将变得模糊。在一个由生成式AI加速信息流通的时代,“被动接受”的认知模式面临严峻挑战。AI幻觉加剧了“后真相”时代的焦虑,促使我们反思何谓可信赖的信息,以及人类自身在信息甄别中的角色。
  • 人类文明的认知风险:“摩西幻觉”(Moses Illusion)指出,当事实中的部分内容被错误但相似的信息替代时,人类往往难以识别3。如果AI幻觉利用了这种认知弱点,持续不断地输出看似合理却谬误的信息,长此以往,将可能系统性地腐蚀社会的集体记忆和基础认知,对教育、文化传承乃至科学研究带来不可逆的负面影响。我们与AI的契约,不仅是效率的提升,更是对真相的共同守护。

未来路径:从“自信幻觉”到“可信智能”

面对AI幻觉这一核心挑战,行业正在从多个维度探索解决方案,旨在将AI从“自信幻觉”引向“可信智能”:

  1. 评估与训练机制的根本性变革:OpenAI已提出未来评估体系必须对“自信答错”施加更大惩罚,并奖励模型合理表达不确定性1。通过设计**“置信度门槛”**等新奖惩机制,迫使模型学会谨慎作答,在不确定时更愿意说“不知道”1。这将是重塑模型“品格”的关键一步。
  2. 融合式信息架构的普及:RAG(检索增强生成)技术将成为标配。通过将LLM与外部实时、权威的知识库相结合,在生成前先进行信息检索,再作为上下文输入模型,可以显著提升生成内容的准确性4。这种**“先检索,后生成”**的模式,将把AI的知识源从静态训练数据扩展到动态、可验证的全球知识网络。
  3. 强化AI的“自省能力”与“知识论诚信”:未来的AI不仅要能生成,更要能反思自己的生成过程。这包括赋予模型解释其决策和推理链条的能力(Explainable AI, XAI),甚至能够像人类一样,在生成答案后,自主进行多方验证和交叉比对5。英伟达CEO黄仁勋也坦言,我们距离“基本上可以信赖”的AI答案还有“几年”的距离1,这凸显了提升AI“自省能力”的长期性和复杂性。
  4. 跨领域协同治理与标准建立:鉴于AI幻觉的社会影响,技术解决方案必须辅以伦理规范和治理框架。产业界需合作建立统一的内容可信度标准,开发AI内容检测工具,并推动用户侧的AI素养教育。政策制定者也需在法律层面明确AI生成内容的责任归属,例如在司法和医疗等高风险场景下,避免过度依赖AI,并强制要求AI输出可溯源的证据链

大语言模型的“幻觉”现象是其从“智能工具”走向“可信伙伴”道路上的必经阵痛。它迫使我们重新思考智能的哲学边界,重新构建人类与机器智能之间的信任关系。未来成功的AI,将不仅仅是算力和参数的堆叠,更是对知识论诚信的坚守,是能够自我校准、自我反思并坦诚自身局限的智慧实体。这将是一场持续数年的技术攻坚,更是一场人类与AI共同进化的社会实验,重塑我们对真相的理解,以及我们文明的未来图景。

引用


  1. AI准确率下滑?聊天AI「胡说八道」现象激增,连OpenAI也被「幻觉」困扰 · InfoQ · (2025/9/17) · 检索日期2025/9/17 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  2. OpenAI · https://arxiv.org/abs/2509.04664 · (2025/9/17) · 检索日期2025/9/17 ↩︎ ↩︎

  3. 大语言模型的幻觉问题研究综述(上) - 人工智能技术与咨询 · 《软件学报》 · (2024/12/25) · 检索日期2025/9/17 ↩︎ ↩︎ ↩︎ ↩︎

  4. 深度解析LLM幻觉现象:成因、影响与优化策略 · 万维易源 · (2025/9/17) · 检索日期2025/9/17 ↩︎ ↩︎ ↩︎ ↩︎

  5. 「偵測大型語言模型中的AI幻覺」專家意見 · 台灣科技媒體中心SMC · (2024/6/19) · 检索日期2025/9/17 ↩︎ ↩︎

  6. 大模型一本正经地胡说八道甚至无意识造谣,但近七成公众对... · 解放日报 · (2025/5/17) · 检索日期2025/9/17 ↩︎