AI也玩“看人下菜碟”?英国警方紧急下线人脸识别,只因算法太爱“扎心”黑人同胞

温故智新AIGC实验室

TL;DR:

英国埃塞克斯警方最近给自家的实时人脸识别系统(LFR)按下了暂停键,原因特尴尬:这套AI竟然是个“色盲”,专门盯着黑人同胞报错。说好的“高科技执法”,结果成了大型“翻车”现场,算法偏见这块压实的大饼,AI终究还是没咽下去。

算法也搞“双标”?黑人同胞表示很受伤

原本以为科技能让正义“如虎添翼”,结果这只“翅膀”可能长歪了。最近,埃塞克斯(Essex)警方宣布暂停使用实时人脸识别技术,原因是一项深度研究揭露了一个扎心的事实:这套AI系统在识别黑人时,误报率显著高于其他族裔1

简单来说,如果你是一名黑人,走在埃塞克斯街头,被这套名为LFR的系统误认为“通缉犯”的概率,要比白人邻居高出不少。这种“精准打击”让学术界和监管机构坐不住了。英国信息专员办公室(ICO)直接介入,揭开了这层算法的“遮羞布”。

“学术界发现,与其它族裔相比,黑人被系统识别出的可能性‘显著更高’。这不仅仅是技术误差,更是严重的算法歧视。” —— 信息专员办公室(ICO)点评1

这种“科技双标”瞬间让原本为了维护治安的高端工具,变成了可能侵犯人权的“数字偏见机器”。

警方的“免责声明”翻车了:说好的世界第一呢?

有意思的是,埃塞克斯警方此前一直对这套系统信心满满。根据他们披露的一份评估报告,警方声称该系统使用的是Corsight的算法,误报率极低,甚至吹嘘其在NIST(美国国家标准与技术研究院)的测试中表现拔群2

然而,隐私保护组织“老大哥在看着你”(Big Brother Watch)反手就是一个**“证据确凿”的打脸**。他们通过信息公开请求(FoI)拿到的文件显示,所谓的“低误差”在NIST官方网站上根本查不到公开数据支持2。这套被警方包装得严丝合缝的“公平性评估”,被批评者指责为“语无伦次、缺乏逻辑”。

  • 警方的说法: 我们的人脸识别算法是世界顶尖的,充分考虑了公平性。
  • 现实的反馈: 研究证明它有明显的种族偏见,且评估文档漏洞百出。
  • 网友吐槽: “AI不会说话,但写代码的人可能真的有点‘选择性失明’。”

下半场:是“科技执勤”还是“数字枷锁”?

其实,埃塞克斯警察局并不是唯一一家沉迷“刷脸”的单位。目前,全英至少有13家警力(包括伦敦、南威尔士等)都在不同程度地试水这套技术1

尽管警方高层(比如前伦敦警察厅厅长Cressida Dick)曾硬核回怼称“批评者是罪犯的帮子”3,但残酷的数据摆在面前:此前伦敦的人脸识别系统曾被曝出误报率高达88%3。这意味着系统报警10次,可能有将近9次都是抓错了好人。

从全球视角来看,AI的“肤色偏见”早已不是新鲜事。研究表明,由于训练数据中白人男性样本过载,面部识别软件对黑人和亚洲人的识别错误率通常比白人高出10到100倍4

埃塞克斯警方的这次“急刹车”,无疑给全球盲目推崇AI执法的机构敲响了警钟。当技术还分不清“谁是谁”的时候,匆忙将其推上街头,所谓的“公共安全”可能会以牺牲一部分人的“基本体面”为代价。在算法学会真正的公平之前,或许我们更需要的是人类监督者的那双“火眼金睛”。

引用


  1. Essex police pause facial recognition camera use after study finds racial bias · The Guardian · (2026/3/19) · 检索日期2026/3/19 ↩︎ ↩︎ ↩︎

  2. Essex Police discloses 'incoherent' facial recognition assessment · Computer Weekly · (2026/3/19) · 检索日期2026/3/19 ↩︎ ↩︎

  3. 伦敦成西方人脸识别应用先锋,误报率88%拦不住警方部署 · 界面新闻 · (2020/1/27) · 检索日期2026/3/19 ↩︎ ↩︎

  4. 美国商务部研究机构:人脸识别技术有种族、性别偏见 · 观察者网 · (2019/12/20) · 检索日期2026/3/19 ↩︎