微软 Copilot “偷窥门”:我是你的 AI 助理,不是你的私家侦探!

温故智新AIGC实验室

TL;DR:

微软 Copilot 翻车了!原本承诺“数据不出租户”的模范生,竟然因为代码 Bug 绕过权限,偷偷“预读”并总结了用户的机密邮件和草稿。虽然微软光速打了补丁并坚称“没外泄”,但老板们恐怕得重新审视一下:你桌上这位 24 小时待命的 AI,到底是在帮你办公,还是在替别人收集情报?

在这个“万物皆可 AI”的时代,微软 Copilot 简直就是打工人的“电子续命药”。写 PPT、写周报、总结长到让人头秃的邮件,Copilot 几乎成了 Office 里的“全能卷王”。但最近,这位卷王却被曝出了一个让人脊背发凉的“爱好”——它竟然会未经许可,偷偷翻看并总结那些打了“机密”标签的邮件。

简单来说,这就像你请了个私人助理,本以为他只帮你贴发票,结果发现他趁你不在,正津津有味地翻看你锁在保险柜里的情书,还顺便写了个“读后感”。1

翻车现场:说好的“商业机密”怎么变“公开摘要”了?

这次名为 CW1226324 的漏洞事件,最早在 2026 年 1 月下旬被察觉。当时,部分付费的 Microsoft 365 企业客户惊讶地发现,Copilot 的“工作”标签页聊天功能,表现得有点“过于积极”了。

即便是那些被贴上了敏感标签、开启了数据丢失防护(DLP)策略的邮件,也难逃 Copilot 的“法眼”。它不仅能读取这些邮件,还能堂而皇之地在聊天框里给用户生成摘要。最离谱的是,它连你还没发出去的“草稿箱”和“已发送”文件夹也不放过。2

“代码问题使 Copilot 读取了已发送邮件和草稿文件夹中的项目,即便邮件已设置机密标签。” —— 微软官方如是说。

调侃式点评:这哪里是助理,这简直是带了“透视挂”的私生饭啊!

虽然微软在 2 月初紧急推送了修复程序,并表示“没有证据表明信息被泄露给未授权人员”,但这番解释在隐私专家眼里显然有点“公关味儿”太浓。毕竟,AI 的数据处理逻辑就像个黑盒,一旦权限校验在 API 层面失效,所谓的“企业级安全隔离”瞬间就变成了“皇帝的新衣”。1

技术大揭秘:API 权限校验,程序员的一小步,隐私泄露的一大步

那么,这个让微软颜面扫地的 Bug 到底是咋回事?

根据技术复盘,问题的根源在于 Office 后端 API 的权限校验失败。在理想状态下,Copilot 访问任何数据都应该经过严格的“政审”:这封邮件是不是机密?用户有没有查看权限?DLP 策略允许 AI 总结吗?

但在现实中,由于快速迭代 AI 功能的工程压力,这一层过滤网在处理“工作”标签页的查询请求时突然“掉线”了。这导致 Copilot 在拉取内容时,直接跳过了权限检查的关卡,把机密邮件当成了普通文档处理。1

更让企业头大的是,这种漏洞利用起来几乎“零门槛”。此前就有研究人员展示过名为 Echoleak 的攻击方式,黑客甚至不需要植入病毒,只需要发一封精心设计的邮件诱导 AI,就能利用类似的漏洞提取出系统中的机密信息。3

行业“地震”:AI 速度 vs 安全,谁在“裸奔”?

微软这次“偷窥门”并非孤例。事实上,AI 巨头们在隐私这条红线上反复横跳已经是常态:

  • 2023 年,OpenAI 曾因 ChatGPT 泄露对话记录被推上风口浪尖;
  • 2024 年,Google Gemini 也因权限管理问题被欧洲监管机构盯上。1

这暴露了当前 AI 产业的一个残酷现状:为了在 AI 军备竞赛中不掉队,巨头们都在“蒙眼狂奔”。

功能上线快不快?快! 用户体验爽不爽?爽! 安全底座稳不稳?……呃,等出事了再补。

根据 Gartner 的预测,到 2027 年,80% 的企业办公软件都将内置 AI,但“隐私合规”将成为最大的拦路虎。对于企业主来说,这不仅是技术问题,更是信任危机。如果 AI 助手成了潜伏在系统里的“特洛伊木马”,那么效率提升带来的收益,可能还不够交一笔 GDPR 的罚款。1

深度洞察:我们还能相信 AI 助理吗?

虽然微软已经修补了漏洞,并建议用户通过 Microsoft Purview 等工具监控 AI 的访问日志,但这真的够了吗?

“信任是 AI 的基石”,纳德拉这话虽然说得漂亮,但基石如果总是有裂缝,大厦迟早要晃。未来,**“零信任架构”“可解释 AI”**不应只是 PPT 上的概念,而应该是每一行 AI 代码的底色。

对于我们这些普通用户或企业管理员来说,现阶段最理性的姿势或许是:

  1. 别把 AI 当成树洞:别在没加密的草稿箱里写什么惊天大秘密。
  2. 盯紧你的权限表:定期检查 AI 插件的访问范围,没必要给的权限坚决收回。
  3. 保持警惕:当 AI 表现得比你还懂你时,记得问一句——它到底是从哪儿知道这些的?

毕竟,在 AI 真正学会“自律”之前,我们只能先学会“自保”。

引用


  1. 微软Office漏洞曝光:Copilot AI擅读客户机密邮件 · 赢政天下 (2026/2/18) · 检索日期2026/2/20 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  2. 微软称Microsoft 365 Copilot存在漏洞,未经授权总结保密邮件 · 凤凰网 (2026/2/18) · 检索日期2026/2/20 ↩︎

  3. Echoleak - 发送提示,从Copilot AI 中提取机密!(CVE-2025-32711) · Seqrite · (2025/2/18) · 检索日期2026/2/20 ↩︎