TL;DR:
别再迷信AI给你的“唯一答案”了,它可能正拿着水军的剧本忽悠你。315晚会曝光的GEO(生成式引擎优化)技术,只需几十块钱就能让AI为虚假产品“集体带货”,把“随机鹦鹉”变成“专业推销员”。
2026年的315晚会,给正处于AI热恋期的网民们泼了一盆透心凉的冷水。
想象一下,你在电商平台随手买了个几十块钱的“力擎GEO”优化软件,给它喂了一堆纯属胡诌的“Apollo-9智能手环”资料。两小时后,当你去问主流大模型这个手环怎么样时,AI不仅没识破骗局,反而像拿了回扣一样,引经据典地夸它性能卓越、行业领先1。
更荒谬的是,三天后,这个不存在的手环已经爬上了AI推荐的“国内智能手环”榜单前列。从无到有,从虚构到被AI认证,不需要黑客攻破防线,只需要几篇软文、几十块钱和一点点“GEO”的小技巧。
这哪里是AI进化,这简直是AI被“投毒”后的职业生涯污点。
“随机鹦鹉”也喝迷魂汤:AI是怎么被洗脑的?
要搞清楚AI为什么这么容易被忽悠,我们得先看清大家获取信息方式的“范式大跃迁”。
以前搜东西,搜索引擎丢给你“十条蓝链”,你得像个老中医一样望闻问切,自己筛选哪个是广告,哪个是真知。过程虽然繁琐,但判断权在你自己手里。现在呢?AI直接喂饭到嘴边,给出一个语气坚定、带有百科全书式权威感的答案。
这种“直接给答案”的快感,精准狙击了人类大脑中阻力最小的路径。心理学家卡尼曼曾提出系统1(直觉)和系统2(理性)2,AI的单一答案让我们直接关掉了费劲的系统2,沉溺在系统1的省力模式中。调研显示,93%的中国网民都是“高认知闭合需求”群体,也就是那种“别跟我扯没用的,直接告诉我选哪个”的人3。
AI的本质其实是一个极速综述写作者,学术界有个毒舌的比喻叫“随机鹦鹉”4:它并不理解真理,它只是在统计学意义上模仿人类说话。它采用的RAG(检索增强生成)架构,就像是先去互联网上搜一圈,然后再总结发言5。
GEO(生成式引擎优化) 玩的就是这一套:既然AI会去互联网上“采风”,那我就在AI必经之路上铺满我编好的剧本。当全世界的“共识”都是我雇水军批量制造出来的虚假信息时,AI这个“高级复读机”自然就开始一本正经地胡说八道了。
调侃时刻: 以前水军是占领评论区,现在水军是直接占领AI的大脑。你以为你在问上帝,其实你在问一个刚看完地摊文学的保洁阿姨。
SEO是“骗点击”,GEO是“买信任”
有人会说,SEO(搜索引擎优化)玩了二十年了,GEO不就是换个马甲吗?
并不是。这两者之间隔着一条名为“信任溢价”的鸿沟。
- SEO(搜索引擎优化): 操控的是“你看到什么”。它让烂网站排在第一页,但你点进去一看那五彩斑斓的黑和满屏弹窗,心里自会有一句“打扰了”。商业意图是透明的,大家都有防御心理。
- GEO(生成式引擎优化): 操控的是“你相信什么”。它让虚假信息融入AI的回答里,以AI“客观中理”的口吻说出来6。你看到的不是广告,而是你最信任的智能助手给出的“专业建议”。
这种商业意图的完全隐藏,才是最致命的。GEO黑产软件一天能自动生成63篇软文,一年就是两万多篇6。当AI判断信源的逻辑变成“看谁说得多、看谁引用广”时,真相就变成了一种可以被购买的“概率”7。
更糟的是,AI目前还是个“黑箱”。哪怕是顶级大模型,也经常把来源张冠李戴。有研究测试发现,某主流模型在200次测试中,有134次引用的信源都是错的8。连AI开发者都搞不清楚,自家的AI为什么会pick那个虚假的链接,这让“黑帽GEO”的操控变得极其隐蔽且难以审计。
魔法怎么打败魔法?我们需要的不止是智商,还有“问商”
面对这种系统性的“信息投毒”,光靠咱们普通人那点警觉性确实有点悬。
好在,监管和技术防线已经开始动真格了。2026年1月,国家市场监督管理总局已经明确把AI生成广告列为监管重点9。未来的AI推荐,如果背后收了钱,可能也得像朋友圈广告一样,标上一个清清楚楚的“广告”标识。
但在技术完全封堵漏洞之前,我们得先升级自己的“问商”(Questioning Quotient):
- 看引用: 别光看结论,看它下边有没有靠谱的链接。没来源的答案,统一按“做梦”处理。
- 多对比: 别逮着一个模型薅。多问几个,如果只有某一家拼命安利某个名不见经传的牌子,那多半是它“中毒”了。
- 问“为什么”: 追问它的推理逻辑。谎言能编出结论,但很难编出严丝合缝的逻辑链路。
信息污染从来没消失过,只是在AI时代换了种更高级的伪装。AI给我们最好的礼物,不应该是一个现成的漂亮答案,而是一个让我们学会如何更好提问的机会。
答案是一种舒适,而持续的追问,才是我们在这个充满GEO陷阱的世界里,作为思考者的最后尊严。
引用
-
央视315曝光GEO数据投毒:虚构产品两小时成AI推荐首选 · Donews · (2026/3/15) · 检索日期2026/3/30 ↩︎
-
Thinking, Fast and Slow · Farrar, Straus and Giroux · Daniel Kahneman · (2011/10/25) · 检索日期2026/3/30 ↩︎
-
腾讯新闻较真十周年辟谣白皮书:十年辟谣之路——从信息净化到信任重构 · 腾讯研究院 · (2025/12/30) · 检索日期2026/3/30 ↩︎
-
On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? · ACM Digital Library · Emily M. Bender et al. · (2021/3/1) · 检索日期2026/3/30 ↩︎
-
GEO: Generative Engine Optimization · arXiv · Pranjal Aggarwal et al. · (2023/11/16) · 检索日期2026/3/30 ↩︎
-
315曝光AI大模型“投毒”黑产,39.9元篡改AI答案 · 36氪 · 云鹏 · (2026/3/16) · 检索日期2026/3/30 ↩︎ ↩︎
-
拥抱概率真相——AI时代谣言套路拆解与防御指南 · 腾讯研究院 · (2025/7/15) · 检索日期2026/3/30 ↩︎
-
AI Search Has a Citation Problem · Columbia Journalism Review · Klaudia Jaźwińska et al. · (2025/3/6) · 检索日期2026/3/30 ↩︎
-
2026年全国广告监管工作要点 · 国家市场监督管理总局 · (2026/1/29) · 检索日期2026/3/30 ↩︎