TL;DR:
“EXO第13人”事件并非单一的恶作剧,而是AIGC时代集体记忆被算法与虚构叙事重塑的预演。它揭示了当AI生成的内容具备高度拟真性与情感共鸣时,公众辨识真相的感官防线正在崩溃,认知安全已成为亟待关注的社会基础设施议题。
拟真的逻辑:从“模仿”到“反向定义”
“King”的虚构不仅是技术的狂欢,更是哲学意义上的“拟真”(Simulation)实践。正如鲍德里亚所言,符号早已脱离原型,开始自我循环并反向定义现实1。在AIGC技术的加持下,伪造者不再仅仅依赖文本,而是通过生成低画质噪点、舞台动作捕捉、甚至模仿时代特有的滤镜质感,构建了一个逻辑自洽的视觉世界。
这种技术手段的本质是感知欺骗的工业化。当视觉证据(照片、视频)与叙事框架(悲情、反资本、怀旧)高度吻合时,人类大脑的认知防御机制会自动关闭,将“视觉上的真实感”误认为“历史的客观性”。这种技术迭代速度之快,已使得传统的“眼见为实”彻底失效。
认知锚点的重构与曼德拉效应
该事件最令人背脊发凉之处在于,即便在事实被澄清后,仍有大量网友坚称“记得曾见过”。这是典型的“人造曼德拉效应”234。AI不仅在生成内容,更在通过社交媒体算法的放大效应,不断向群体发送认知暗示。
- 感官替代理性:当AI生成的“史料”比真实历史更具戏剧张力,大众往往倾向于采纳更具情感冲击力的版本,从而产生严重的认知偏差。
- 社会学意义上的共创:King的“成功”并非因为AI有多完美,而在于它提供了一个“情绪容器”。网友通过参与造神,实际上是在完成对娱乐工业体制中“资本压榨”这一社会叙事的自我投射。
产业生态中的信任危机
从商业维度看,这种伪造行为正在侵蚀整个内容工业的合法性根基。如果一个偶像的履历可以被随意删改、填充,那么商业合同、艺人声誉、版权链条将面临全面崩塌。
- 合规缺口:现有的内容管理机制(如“通知-删除”义务)在爆发式传播的meme面前显得严重滞后。
- 治理的技术门槛:未来,基于数字水印和底层溯源技术的“数字身份证”将成为内容行业的刚需,但鉴伪技术与造假技术之间的“军备竞赛”将长期存在5。
前瞻:认知安全作为新的社会议题
在未来3-5年内,我们必须正视“认知安全”这一议题。当虚构成为一种极低成本的公共产品,社会契约的基础——即我们对同一现实的共同确认——正面临解构。
我们需要从三个层面构建应对框架:
- 技术防御:普及不可见的数字水印,推动鉴伪算法进入社交平台基础设施,实现“生成即标识”。
- 治理与法治:法律体系需从单纯的“隐私保护”转向“认知权利保护”,将恶意伪造并传播虚假历史记忆的行为定义为严重的公共利益侵害。
- 认知韧性:教育体系应引入“媒介素养2.0”,即教导公众理解算法生成的拟真逻辑,重建对信源核实的理性依赖。
历史从来不是一成不变的,但在算法控制下的“历史”,正变得像黏土一样易于揉捏。如果我们不能守住真实,那么下一个被“幽灵”篡改的,可能就是我们作为集体文明的共同底色。
引用
-
应对AIGC引发的真实性挑战·光明日报·刘玮(2025/11/26)·检索日期2026/5/14 ↩︎
-
AI伪造EXO第13成员事件·新浪新闻(2026/5/13)·检索日期2026/5/14 ↩︎
-
网友虚构EXO第13位成员·新浪新闻(2026/5/13)·检索日期2026/5/14 ↩︎
-
从小鹏“不雅视频”看AIGC失控风险·维科号V·张栋伟(2026/5/14)·检索日期2026/5/14 ↩︎