TL;DR:
OpenAI 疑似“手滑”泄露 GPT-5.4,带着 200 万超大上下文和“持久化记忆”杀向战场。从此 AI 不再是聊完就忘的“渣男”,而是能记住你所有工作流、像素级看图的赛博合伙人,顺便还引爆了一场底层的显存大战。
起猛了,家人们!正当大家还在为了 Gemini 3.1 和 Claude 4.6 的跑分多拿了几个百分点而争得面红耳赤时,OpenAI 似乎决定直接掀桌子了。
就在近日,一名 OpenAI 工程师在 GitHub 仓库中提交代码时,不小心把“gpt-5.4”写进了判断条件里。虽然官方火速撤回并改成了“gpt-5.3-codex”,但这种“此地无银三百两”的操作,反而让全网科技圈陷入了疯狂。1 种种迹象表明,OpenAI 准备跳过 5.3,直接掏出一张代号为 5.4 的核弹级王牌。
告别“初恋 50 次”:有记忆的 AI 到底有多顶?
说实话,现在的 AI 某种程度上挺像《初恋 50 次》的女主角:每次新建对话,它都会把你忘得干干净净。你得一遍又一遍地交代背景、项目需求和你那该死的审美偏好。
但 GPT-5.4 的核心杀手锏就是状态化 AI(Stateful AI)。2 配合高达 200 万 Tokens 的上下文窗口,这意味着它不再是一个“无状态”的复读机,而是一个拥有“持久化认知连续性”的超级大脑。
简单来说,它能跨会话记住你的工作流。3 你上周写了一半的 Bug,昨天讨论的设计风格,甚至是你对代码注释的各种奇葩要求,它都记在心里。
“打工人终于不用每次新建对话时,像复读机一样重新交代冗长的项目背景了。它能真正融入你的日常开发节奏,而不是每次都问你‘你是谁,我们要干嘛?’。” 1
视觉大进化:它看你的设计图,可能比你还准
如果说记忆力的提升是“脑容量”暴涨,那 GPT-5.4 的视觉能力简直是换了一双“火眼金睛”。
目前的泄露信息显示,新版本支持全分辨率视觉直读。1 以前的 AI 看图,其实是看被压缩过的“模糊小样”,这就导致它经常对着工程图一本正经地胡说八道。现在,GPT-5.4 能绕过压缩机制,直接读取原始字节。
前端工程师和设计师可以把像素级精细的 UI 设计图丢给它,它能精准指出哪里的边框偏离了 1 像素,或者哪个组件的颜色没对上。这种“像素级”的分析能力,让 AI 真正从一个“只会看个大概”的业余选手,变成了能审图的专业监理。
行业“地震”:谁在卷跑分,谁在造数字生命?
当竞品还在纠结推理基准测试里的小数点后几位时,GPT-5.4 的野心显然是完成从“聊天机器人”到**“全自动代理员工(Agent)”**的身份转换。1
它不仅记得住,还能在后台高度可靠地执行多步复杂任务。这种能力的飞跃,也直接把大模型之间的竞争从“软件层”逼到了“硬件层”。
- 内存之战全面爆发:海量的 KV 缓存(Key-Value Cache)增长,让高带宽内存(HBM)和 SRAM 压力山大。1
- 架构升级:为了维持这种长期记忆,OpenAI 似乎参考了类似 Google Titans 的架构研究,利用内部信号来决定哪些信息值得被永远记住。2
这意味着,未来的 AI 不再是那个你问一句、它回一句的对话框,而是一个挂在后台、自带上下文、随时准备接手你复杂任务的“数字生命”。
未来预测:你的 AI 可能比你更了解你的项目
如果 GPT-5.4 真的在下周落地,大模型领域的格局将被彻底重塑。我们正从“调教提示词”的艺术时代,跨入“管理 AI 上下文”的科学时代。4
它可能会让那些号称最先进的竞品,在一瞬间看起来像个带有对话框的“高级计算器”。毕竟,一个能记住你所有偏好、能像素级看图、还拥有 200 万行“工作日志”的 AI,谁能不爱呢?
当然,我们也得留个心眼:当 AI 记住你的一切时,你的隐私安全是否也得跟着升级?以及,当 AI 变得越来越像个“老油条”时,人类是否真的准备好把工作流的控制权彻底交出去?
引用
-
GPT-5.4据传下周上线,200万上下文窗口+持久化状态,告别频繁遗忘 · 新智元 · 艾伦 (2026/3/2) · 检索日期2026/3/2 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
拥有长期记忆的AI:持久化上下文如何改变您的AI体验 · Jenova.ai (2026/3/2) · 检索日期2026/3/2 ↩︎ ↩︎
-
【OpenAI中文文档】上下文工程一带有长期记忆的状态管理 · 知乎专栏 (2026/3/2) · 检索日期2026/3/2 ↩︎
-
【万字长文】AI也有记忆?上下文工程与记忆系统实战指南 · CSDN博客 (2026/3/2) · 检索日期2026/3/2 ↩︎