TL;DR:
OpenAI 正式和美国国防部“成亲”了,但这份婚前协议签得很硬气:划下三道红线,严禁技术用于监视老百姓或指挥杀人机器。奥特曼(Sam Altman)表示:我们是有底线的,而且防线比隔壁 Anthropic 还要厚!
曾经那个高喊“AI 必须造福全人类”的纯情少年 OpenAI,终究还是走进了五角大楼的办公室。
最近,OpenAI 修改了与美国国防部的合作协议,虽然大家都在调侃这是“光速滑跪”1,但 OpenAI 还是努力在协议里塞进了一堆补丁。简单来说,就是给五角大楼的将军们送去了一把绝世宝剑,但顺便在剑鞘上焊死了三道锁,核心目的只有一个:别拿我们的 AI 去搞《少数派报告》那一套。
技术大揭秘:这三道“红线”到底锁住了啥?
为了堵住悠悠众口,OpenAI 这次可谓是求生欲拉满。在最新的合同里,他们明确立下了三个“绝对不行”:
- 拒绝“老大哥”: 严禁将技术用于对美国公民的大规模国内监控。你想用 GPT 帮你看监控录像抓人?对不起,此路不通。2
- 拒绝“杀人蜂”: 禁止直接指挥自主武器系统。AI 可以帮忙分析情报,但最后扣动扳机的必须是那个活生生的人。3
- 拒绝“一键定生死”: 严禁在高风险的自动化决策中使用其技术。毕竟,AI 偶尔会“一本正经地胡说八道”,这种性格放在战场决策上,那可不是闹着玩的。4
这协议修改得就像是给 AI 穿上了一件“道德防弹衣”。OpenAI 强调,他们对自己的安全体系拥有完全的自主决定权,这可不是五角大楼给点钱就能随便改的。2
行业“地震”:谁在阴阳怪气,谁在疯狂内卷?
就在萨姆·奥特曼在 X(原 Twitter)上意气风发地宣布达成协议时,隔壁的 Anthropic 莫名其妙就被 Cue 到了。5
“我们的协议拥有更全面的安全防护措施,比 Anthropic 的更安全!” —— 这大概就是 OpenAI 此时此刻最想喊出来的台词。4
这种“拉踩式”公关在科技圈其实不罕见,但把军事合同当成安全等级的军备竞赛,确实让吃瓜群众看傻了眼。讽刺的是,这些看似严苛的条件,其实和 Anthropic 之前坚持的原则高度重合。原本大家都在抵制军方合同,现在变成了“看谁跟军方签的合同更有节操”。5
未来预测:硅谷与五角大楼的“蜜月期”来了?
从最初的“坚决不碰军事”,到现在的“划红线式合作”,OpenAI 的转变其实反映了整个硅谷的焦虑。随着算力成本像滚雪球一样越滚越大,单纯靠 VC 输血已经不够了,国防部这种“超级金主”的单子,谁看了不眼红?
但问题也随之而来:红线真的能防得住吗?
有分析人士担心,这三道红线更像是一层薄薄的窗户纸。1 今天的“非战斗辅助”和明天的“战术决策支持”,边界到底在哪?当 AI 技术深度嵌入军事系统后,OpenAI 还能不能保持那种“完全自主的决定权”?这恐怕得打个大大的问号。
无论如何,AI 军事化的潘多拉魔盒已经打开了一条缝。OpenAI 正在尝试证明,他们可以既赚军方的钱,又保持住科技公司的“体面”。至于这到底是“为了人类的安全”还是“为了报表的安全”,咱们只能边走边看了。
引用
-
光速滑跪之后,OpenAI公布与五角大楼协议,但引来更多质疑 · 知乎专栏 · (2026/2/28) · 检索日期2026/3/3 ↩︎ ↩︎
-
OpenAI与美国防部达成协议,设三条红线保障技术安全 · d1ev · (2026/3/1) · 检索日期2026/3/3 ↩︎ ↩︎
-
OpenAI为美国国防部协议辩护:设置三条红线 · 新浪财经 · (2026/3/1) · 检索日期2026/3/3 ↩︎
-
OpenAI 为美国国防部协议辩护:设置三条红线,比Anthropic 的更安全 · IT之家 · (2026/3/1) · 检索日期2026/3/3 ↩︎ ↩︎
-
Sam 宣布OpenAI 与美国国防部正式达成协议 · X (Twitter) · Sam Altman · (2027/1/15) · 检索日期2026/3/3 ↩︎ ↩︎