大编也翻车!AI“幻觉”让传媒大佬丢了饭碗,这波“赛博调包计”玩砸了

温故智新AIGC实验室

TL;DR:

欧洲传媒界的一位“老教父”最近在AI上栽了大跟头,因为让AI替采访对象“乱加戏”被停职。他自嘲掉进了AI“幻觉”的坑,但这波“赛博调包计”不仅弄丢了饭碗,更让新闻业的公信力再次面临“破产”危机。

谁能想到,在新闻界摸爬滚打几十年的资深老兵,最后竟然被一个只会算概率的聊天机器人给“带沟里”了?

最近,欧洲传媒巨头Mediahuis(旗下拥有《电讯报》和《爱尔兰独立报》等响当当的媒体)发布了一则重磅罚单:暂停其高级记者Peter Vandermeersch的所有职务1。这位大佬可不是什么刚入行的小透明,他曾是荷兰大报《NRC》的总编辑,也曾掌管Mediahuis在爱尔兰的整个版图。

而他落马的原因,听起来既前卫又荒诞——他承认自己利用AI给采访对象“强行喂词”。简单来说,就是他让AI帮他写报道,结果AI不仅“脑补”了采访对话,还一本正经地把这些压根没发生过的话安在了受访者头上。

赛博“幻觉”:这锅到底该谁背?

面对调查,Vandermeersch的解释非常“极客”:他自称掉进了**AI“幻觉”(Hallucinations)**的陷阱1

所谓“幻觉”,就是AI在回答不出问题时,为了维持“全知全能”的人设,开始发挥它那强大的统计学想象力,编造出一些逻辑自洽但完全虚假的信息。对于普通人来说,AI编个冷知识可能也就笑笑过去了,但在新闻行业,这简直就是公信力的“核弹级”灾难。

“AI:只要我编得够像,你就分不清谁是受访者,谁是我的训练集。” ——调侃式点评:这哪是幻觉,这分明是AI在帮记者写‘同人爽文’啊!

事实上,这种“脑补”行为在AI圈早有先例。就连科技巨头谷歌和苹果也没能幸免。此前就有报道指出,Apple Intelligence在生成新闻摘要时,会把原本准确的标题总结成完全错误的信息2。连大厂的算法都会在理解语境时“断片”,指望它能精准复现采访现场的每一个语气词,确实有点为难它了。

效率神器还是“公信力刺客”?

不可否认,AI确实是内容生产的“效率增压器”。

在全球AI内容生成市场预计将以每年25%的速度疯狂增长的背景下,连加州大学伯克利分校的《The Daily Californian》都在尝试用AI跑数据分析,德克萨斯大学奥斯汀分校也在教学生怎么用AI写初稿2。从海量数据中挖掘线索、处理像NFL伤病数据这种庞大的结构化信息,AI确实比人类记者强得多。

但问题在于,新闻业的底线是事实,而AI的本质是预测。

  • 理解力“感人”:澳大利亚政府的一项试验发现,AI在总结复杂文件时,完全抓不住那些关于利益冲突、监管细节的微妙之处,表现远不如人类编辑2
  • 版权“雷区”:如果记者全靠AI写稿,这文章的版权归谁?美国版权局已经明确发话了:纯AI生成的作品不受版权保护2
  • 偏见“复印机”:如果训练数据里带了偏见,AI产出的内容就会自动开启“滤镜”,甚至可能操纵舆论2

未来:记者会丢掉饭碗吗?

这次“翻车”事件给所有传媒人敲响了警钟:你可以把AI当成你的“极客助手”,但绝对不能把它当成你的“代笔幽灵”。

在大学新闻机构的探索中,专家们发现,无论是处理Brandeis大学的CMS指南,还是分析复杂的公共政策,AI生成的内容都需要进行高强度的人工复核2。这不仅仅是校对错别字,更是要在“赛博世界”和“真实世界”之间筑起一道防火墙。

毕竟,如果连记者的引语都是AI生成的,那读者以后是不是也该用AI生成一个“假人”来假装阅读呢?在这个“深度伪造”横行的时代,真实反而成了这个行业最贵、也最稀缺的奢侈品。

下一次,当你看到一篇文笔流畅、逻辑严密得不像话的报道时,不妨多留个心眼:这到底是记者的心血,还是AI又在进行一场盛大的“赛博梦游”?

引用