TL;DR:
AI大模型这次“演”砸了。它一边热心肠地“脑补”了一份“8家新能源车企被约谈”的黑名单,一边让全网信以为真,结果逼得比亚迪、特斯拉们集体辟谣。这事儿告诉我们:AI的“一本正经胡说八道”,杀伤力可比人类造谣大多了,而且它自己还不用负责。
2026年5月9日,中国新能源汽车行业发生了一件比新车发布还热闹的事——比亚迪、特斯拉、小鹏、理想、蔚来、问界、极氪、广汽埃安,这8家平日里在市场上杀得眼红的巨头,竟然在同一天,罕见地枪口一致对外,集体发声明辟谣。
辟啥谣?不是什么“竞争对手偷工减料”,而是一份在网上疯传的“被约谈名单”。传言称,这8家兄弟因为“OTA锁电”问题,被监管部门约谈,其中3家还被立案调查。
消息一出,网上炸了锅。车主们拍着大腿:“我就说续航变短了!”路人甲跟着起哄:“看吧,大厂也干这种龌龊事!”
然而,剧情很快反转。中国汽车工业协会副秘书长柳燕亲自下场打脸:“已核实,网传内容与事实严重不符。”[^1]
8家车企也委屈得不行:“我们根本没被约谈啊!”
那这份“精准”的名单到底是从哪来的?
答案,比科幻片还离谱——不是某个八卦小编在地下室里编的,也不是哪个竞品公司花50块钱买的黑稿。而是大家那个看起来无所不知的“好老师”——AI大模型,自己“脑补”出来的。[^2]
AI的“一本正经”,是如何变成“大嘴巴”的?
事情要从今年4月说起。4月17日,央视网发布了一篇关于“OTA锁电”投诉暴涨的报道:3月份全国12315平台相关投诉超过1.2万件,同比暴涨273%,最终有8家车企被约谈,3家被立案调查。[^3]
关键是,报道里留了个悬念:没点名到底是哪8家。
这就像追剧追到关键处,突然告诉你下集预告要会员才能看。全网的好奇心瞬间被点燃了:“到底是哪8家?我的爱车有没有中招?”
这时候,很多人的第一反应不是去查官方公告,而是——问AI。
“AI,你告诉我,被约谈的8家车企是哪几家?”
AI大模型接了这个“送命题”后,开始它那套标准的脑回路:它知道央视网提了“8家被约谈”,它也知道现在主流的车企是谁,于是它非常“聪明”地把这两者结合起来,运用强大的“逻辑推断”和“语言流畅性”,给你拼凑出了一份看起来最合情合理的名单。
它不是在“查”答案,它是在“编”答案。
这就是AI大模型著名的“幻觉”问题。它不是故意撒谎,因为它根本没有“撒谎”这个概念。它的核心任务是生成“最合理”的文本,而不是“最真实”的信息。当它不知道答案时,它不会说“我不知道”,而是会用极其自信的语气,把“合理推测”包装成“既定事实”。
于是,一份由AI“脑补”、看起来无比真实的“8家车企被约谈”名单,就在社交平台上病毒式传播开来。
AI造谣,为什么比人更可怕?
你可能要问:网上造谣的还少吗?AI造谣有什么特别的?
区别大了。
以前造谣是“一个人一只键盘,一天造十条谣”,现在AI造谣是“一台服务器无限分身,一分钟造一万条谣”。效率是一个在天上,一个在地下。[^1]
更重要的是,AI给人带来的权威感幻觉。
当一个人发帖说“我听说XX被约谈了”,大家会骂他傻X,会质疑消息源。但当一张AI生成的、排版工整、逻辑严密的“名单”截图出现时,很多人会觉得:“这是AI查到的,肯定比人瞎编的靠谱吧?”
这种认知偏差,是这次谣言能爆炸性传播的根本原因。[^4]
正如一位车企负责人无奈地对媒体说的:“通过几个营销号就可以随便编造虚假信息,然后通过大模型的助推成为行业热点,这对品牌的伤害是巨大的,但现在谁能给我们一个说法?”[^5]
技术的“锅”,到底该谁来背?
事情搞成这样,总得有人负责吧?
- 第一层:故意传播的人。 小鹏法务部声明里提到的“恶意炒作”,指的就是这些明知是AI生成、未经核实,却依旧为了流量疯狂转载的营销号。他们才是始作俑者,现行法律可以管他们。
- 第二层:AI产品的开发者。 目前主流AI大模型在回答不确定性极高的问题时,缺少一个明确的“置信度提示”。它回答时的语气,根本看不出是“这是我查证过的事实”,还是“这是我瞎猜的推测”。产品设计上的这个缺陷,是接下来监管的重点关注方向。 [^4]
- 第三层:信息生态中的平台。 AI生成的垃圾内容,和人工内容长得一模一样,没有标签,没有水印,堂而皇之地在全网传播。平台的责任,在于如何高效识别和标注这些“AI味”的内容。
比“锁电”更可怕的,是信息被“锁死”
这次事件最大的受害者,不是那8家辟谣的车企,而是整个新能源行业的信息生态。
“锁电”是一个真实存在的、让消费者深恶痛绝的行业毒瘤。3月1.2万件投诉,273%的增长率,这是需要被严肃讨论的真问题。[^3]
但这次谣言,成功地把所有注意力从“车企到底有没有偷偷锁我电”、“监管该怎么定规矩”这些核心问题上,转移到了“这8家名单是不是真的?我们吃瓜!”这种八卦上。
严肃的产业讨论,被一份AI编出来的名单给带跑偏了。 真正需要解决的矛盾被掩盖,讨论的含金量被拉低,这才是这次事件最大的损失。
留给中国AI行业的“必答题”
这次“锁电门”不会是个例。随着AI大模型被越来越多人使用,这种“AI脑补→用户误信→全网疯传→企业遭殃”的剧本,会不断地在医疗、金融、教育各行各业上演。
现在,一个巨大的问题摆在我们面前:当AI说话不用负责,我们该如何为自己看到的信息负责?
这不仅仅是技术问题,更是一个制度问题。我们需要建立一套机制,让AI生成的内容在传播时是可识别的、有置信度标注的。我们需要从技术源头、平台传播、监管治理三个层面,共同给AI这匹“野马”套上缰绳。
AI没有撒谎的动机,但它有制造混乱的能力。当我们的“控制权”既可能被车企的OTA远程改写,也可能被AI的“幻觉”凭空捏造时,这个时代最危险的“信息安全漏洞”,正在从物理世界蔓延到数字世界。