打脸来得太快!英国社工AI竟学会了“瞎编”:不仅乱码,还脑补自杀倾向?

温故智新AIGC实验室

TL;DR:

AI转录工具在英国社福机构集体“翻车”,不仅狂刷乱码,还凭空捏造服务对象的自杀倾向。原本想靠AI减负的社工们发现,这哪是请了个助理,简直是请了个“满嘴跑火车的戏精”。

去年,英国首相基尔·斯塔默(Keir Starmer)还在台上激情安利,称AI转录技术是能为社会工作者节省时间的“绝佳神器”。然而,理想很丰满,现实却给了这位首相一个响亮的耳光。最近一份涵盖英格兰和苏格兰17个议会的调查报告显示,这些被寄予厚望的AI工具,正在严肃的社福记录里玩起“剧本杀”。1

当AI学会“加戏”:从胡言乱语到命悬一线

在科技圈,我们管AI乱说话叫“幻觉”(Hallucination),听起来还挺文艺。但在社会工作这种人命关天的领域,这完全就是“事故现场”。

根据前线社工的反馈,这些AI转录工具的表现简直像个“醉酒的打字员”。它们产出的内容,轻则是毫无逻辑的“乱码”(Gibberish),重则是性质恶劣的虚构。最离谱的是,有的AI竟然在记录中凭空添加了服务对象具有“自杀倾向”的警告。

“这已经不是‘节省时间’的问题了,这是在‘制造恐怖’。如果社工没能及时人工核对出这些虚构的自杀倾向,后续的强制干预可能会彻底毁掉一个家庭。”

想象一下,你只是因为生活琐事找社工聊聊,结果AI助理转头就在档案里给你贴上了“想不开”的标签。这种“AI加戏”不仅没能减轻社工的负担,反而让他们在处理案件时更加提心吊胆,生怕哪一行记录是AI脑补出来的“黑产”。

为什么AI总爱“瞎编”?揭秘背后的翻车逻辑

我们要理解,AI转录工具本质上是一个“概率预言机”。它不是在真正地“听”你说话,而是在根据音频信号猜测下一个字最可能是什么。

当录音环境嘈杂、发言者有口音,或者涉及复杂的专业术语时,AI的“大脑”就会短路。为了完成任务,它会强行拼接出看起来像人话、实则满纸荒唐言的内容。2

  • 环境干扰:社工的工作场景通常不在安静的录音室,嘈杂背景音是AI的噩梦。
  • 过度拟合:AI可能在某些极端语料上训练过头,导致它动不动就往“极端案例”上联想(比如把普通的悲伤脑补成自杀倾向)。
  • 审核真空:许多机构为了追求效率,过度依赖AI生成的草稿,忽略了极其重要的人工核实环节。

这导致了一个讽刺的局面:政府原本希望通过AI将社工从繁琐的文书工作中解放出来,让他们有更多时间去接触真实的人;结果现在,社工们不得不花更多时间坐在电脑前,像个校对员一样逐字逐句地纠正AI的“文学创作”。

治理警钟:别让AI成了公共服务的“隐形杀手”

这次“翻车”事件并非偶然。全球范围内,关于AI在公共服务领域应用的风险已经引发了广泛讨论。

从新加坡推出的“全球AI信任沙盒”,到欧盟严苛的《人工智能法案》,都在强调一个核心观点:在高风险领域(如医疗、社福、法律),AI绝对不能“脱缰”。3 英国监管机构ICO也曾发布策略,强调在预防伤害的同时增进公众对AI的信任。但现在的现实显然是:信任还没建立,伤害已经快到家门口了。

AI在健康和公众服务中的应用应当是“辅助”而非“替代”。2 如果我们只看重AI带来的表面效率,而忽视了底层的数据可靠性和伦理防线,那么这种“技术红利”最终可能会变成公共服务的“负资产”。

对于那些正打算大规模采购AI工具的机构来说,这次英国社工界的教训值得抄进笔记里:在让AI上岗之前,先问问它,它到底分不分得清“事实”和“幻觉”?毕竟,社福档案里的一行字,可能就是一个人的下半生。

引用


  1. AI tools make potentially harmful errors in social work records, research says · The Guardian · (2026/2/11) · 检索日期2026/2/12 ↩︎

  2. 人工智能在健康、公众服务和公共卫生中的应用战略计划 · CAIR-CAS · (2025/1/15) · 检索日期2026/2/12 ↩︎ ↩︎

  3. Preventing harm, promoting trust:our AI and biometrics strategy · Information Commissioner's Office · (2025/10/1) · 检索日期2026/2/12 ↩︎