TL;DR:
AI“一本正经胡说八道”不仅费电,还真能“要命”。当全球监管大佬还在为谁的规矩更硬吵架时,已经有用户因为深信 AI 的幻觉而倾家荡产、婚姻破裂,专家直言:在让 AI 上岗前,是不是该先给人类做个“防忽悠”测评?
最近,科技圈最火的词不是 AGI,而是“幻觉”(Hallucination)。如果说 AI 只是偶尔把鲁迅和周树人搞混,大家还能当个笑话看,但如果它开始插手你的现实生活,这事儿就真的一点都不好笑了。
最近《卫报》的一篇报道揭开了 AI 背后血淋淋的代价:有人因为听信 AI 的“建议”导致婚姻破裂,还有人被忽悠掉了 10 万欧元。1 这种“数字幻觉”正像病毒一样蔓延,而我们的聊天机器人目前基本上处于“无证驾驶”状态。
技术大揭秘:当 AI 开始“PUA”人类
为什么聪明如我们,会被一堆代码骗得团团转?这就要提到 AI 的黑盒模式和“涌现性”了。
简单来说,AI 并不理解真理,它只是一个超级强大的“概率预测器”。当它用极其自信、温柔且逻辑自洽的语气跟你说话时,人类的大脑很容易产生信任。BBC 的一项研究发现,主流 AI 引擎在生成新闻摘要时,竟然有 51% 的内容存在重大问题,其中 19% 是纯粹的数据错误,13% 甚至是凭空捏造。2
调侃式点评:这中奖率比抽卡手游高多了,可惜中的是“智商税”。
更扎心的是,现在的 AI 并没有“红绿灯”。有专业人士提出,既然医生在开药前都要问诊,为什么 AI 公司不能在用户使用前做个筛选?比如用 PHQ-9 抑郁量表或自杀风险评估工具先测测用户的心理状态。1 毕竟,让一个正处于心理脆弱期的人去面对一个可能产生幻觉的黑盒,无异于给酒驾的人一把法拉利车钥匙。
全球“猫鼠游戏”:谁才是真正的监管“判官”?
面对 AI 这个“脱缰的野马”,全球各地的监管机构正演出一场精彩的“三国演义”:
- 欧盟(严厉的教导主任):他们的《人工智能法案》已经在 2024 年生效,主打一个“风险分级”。高风险的应用(比如医疗、基建)必须接受魔鬼审核,违规可能面临千万欧元的巨额罚单。23
- 美国(崇尚自由的体育老师):虽然各州吵得不可开交,但联邦层面更担心监管会掐死创新。副总统万斯甚至直言,过度监管会把关键市场拱手让给中国。24
- 中国(追求平衡的班长):采取“先行先试”的套路,一方面出台《生成式人工智能服务管理暂行办法》,强调算法备案和安全义务,一方面在立法规划中稳步推进。2
这场全球博弈的潜台词其实很简单:大家都想给 AI 制定“交通规则”,但谁也不想因为规则太细而跑得比邻居慢。4
未来预测:AI 究竟是核武器还是 Photoshop?
关于 AI 的未来,大佬们吵得更凶。OpenAI 的萨姆·阿尔特曼建议成立一个类似“国际原子能机构”(IAEA)的组织来盯着高级 AI,防范毁灭性风险。2
但维基百科创始人威尔士却吐槽道:“让联合国监管 AI,就像让它去管 Photoshop 修图一样荒谬。”2
不管未来如何,AI 的伦理挑战已经从“实验室课题”变成了“社会危机”。从 DeepFake 换脸引发的隐私灾难,到 3D 打印枪支的安全隐患,甚至是 AI 训练时惊人的电力消耗(ChatGPT 每天耗电量是普通家庭的 1.7 万倍!),每一项都在挑战人类的认知底线。5
结语: 科技公司总喜欢说“Tech for Good”(科技向善),但在真正的“善”到来之前,我们或许得先学会如何跟一个会撒谎的超级大脑相处。下次当你觉得 AI 说的非常有道理时,记得先掐一下自己:这到底是未来的启示录,还是另一场让你倾家荡产的幻觉?
引用
-
Unregulated chatbots are putting lives at risk | Letters · The Guardian · (2026/4/1) · 检索日期 2026/4/2 ↩︎ ↩︎
-
人工智能大爆发后的监管命题:风险分类、路线分化与地缘政治阴影 · BBC 中文 · (2025/3/1) · 检索日期 2026/4/2 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
人工智能3.0: · 中伦律师事务所 · 蔡鹏, 龚乐凡 · (2025/12/26) · 检索日期 2026/4/2 ↩︎
-
全球人工智能立法的重要关切与未来趋向 · 中国社会科学网 · (2025/12/19) · 检索日期 2026/4/2 ↩︎ ↩︎
-
前沿科技的伦理风险:日益增长的威胁 · 中国科学院院刊 · 王国豫, 鲁晓 · (2024/11/3) · 检索日期 2026/4/2 ↩︎