WhatsApp搞了个“阅后即焚”AI聊天,是隐私救星还是甩锅神器?

温故智新AIGC实验室

TL;DR:

WhatsApp 最近给 Meta AI 加了个“隐形模式”,聊完天消息自动消失,主打一个“不留痕迹”。但网络安全专家却泼了盆冷水:这功能要是用来干坏事,连个聊天记录都没有,找谁说理去?这波操作,到底是用户的隐私福音,还是平台的“防甩锅”大法?

聊天记录“嗖”一下没了,AI 版“阅后即焚”来了

想象一下,你跟一个无所不知的 AI 聊完人生困惑、商业机密,甚至是一些“不能说的秘密”,然后……对话记录就像从来没发生过一样,干干净净。这不是科幻片,这是 WhatsApp 最新上线的“隐形 AI 聊天”功能。[^1]

简单来说,就是当你跟 Meta AI 聊天时,可以开启一个“幽灵模式”。在这个模式下,你们的对话内容在结束后会自动消失,不留下任何痕迹。WhatsApp 官方称,这是为了给用户提供“更多的隐私控制权”,特别是对于那些不想让自己的 AI 互动历史被任何人(包括自己)看到的用户。

听起来是不是很贴心?毕竟,谁还没个不想让人看到聊天记录的时刻呢?尤其是当你问 AI“如何跟老板提涨薪”或者“怎么做出完美的炸鸡”这种略显尴尬的问题时。

专家急了:这是给“甩锅”和“作恶”留后门?

然而,就在大家准备为这个功能点赞时,一位网络安全专家站出来泼了盆冷水。他的观点非常尖锐:“删除聊天记录可能会导致在出问题时无法追责。”[^2]

这话什么意思呢?咱们来翻译一下:

  • 甩锅神器? 假如你通过 AI 获取了某个有问题的建议(比如医疗建议、法律建议),然后照做了,结果出了问题。由于聊天记录已经被“阅后即焚”,你就很难去证明“是 AI 教我这么干的”。平台可能会说:“空口无凭,我们可没说过这话。” 这锅,最后可能还是用户自己背。
  • 作恶温床? 更极端一点,如果有人利用这个 AI 进行诈骗、诱导犯罪或者传播违规信息,由于所有对话都被设定为自动消失,调查人员将很难获取证据。这无疑给网络犯罪增加了一层“隐形斗篷”。

一位网友在 Reddit 上吐槽道:“太好了,以后 Meta 可以理直气壮地说‘我们不知道用户跟 AI 聊了什么,因为我们没保存’——这简直是企业级的免责声明啊!”[^3]

Meta 的隐私“双面人”:一边加密,一边“偷窥”?

更有意思的是,Meta 在这件事上展现出了极致的“双标”。

一方面,WhatsApp 一直以“端到端加密”作为最大的卖点,反复强调“你的私人消息、照片、通话等私人内容仅限你与选定联系人访问,即使 WhatsApp 也无法触及”。[^4] 现在又推出“消失消息”功能,简直是把“隐私保护”的牌坊立到了珠穆朗玛峰上。

但另一方面,Meta AI 本身却充满了争议。根据 Tuta 的分析报道,Meta AI 是默认开启且无法关闭的。[^5] 更让人细思极恐的是,Meta 已经宣布计划使用欧盟用户的公开帖子、评论以及与 Meta 聊天机器人的任何互动来训练其 AI 模型。[^6] 虽然官方声称“不会使用个人聊天记录”,但你跟 AI 机器人的互动内容,却可能成为喂养 AI 的“饲料”。

这就很魔幻了:

  1. 你跟朋友聊骚? 端到端加密,谁也看不见。
  2. 你跟AI聊正经事? 恭喜你,你的对话可能正在被用来“训练”AI,未来可能会被用来服务别人。
  3. 你跟AI聊了不能说的? 别怕,新功能可以让你一键清空,不留证据。

结论:这是一场关于“信任”的军备竞赛

所以,WhatsApp 这次推出的“隐形 AI 聊天”,更像是一次精妙的公关操作。

它在试图解决一个真实存在的用户痛点——隐私焦虑。但同时也打开了一个新的潘多拉魔盒——责任归属问题。对于普通用户而言,这可能只是一个“不想让人看到我问了什么蠢问题”的体贴功能。但对于整个社会和技术监管来说,这无疑是一次挑战。

最后,送给大家一个灵魂拷问: 当 AI 开始学会“抹去记忆”时,我们到底是更安全了,还是更不安全了?这道题,留给 Meta 和所有用户来解。