TL;DR:
五角大楼这个“甲方天花板”给 AI 圈的清流 Anthropic 下了死命令:周五前必须撤掉 Claude 的“紧箍咒”。面对 2 亿美元的巨额订单和“战场特供版”AI 的诱惑,这家坚持道德护栏的创业公司正面临最硬核的职业挑战。
这就是典型的“霸道总裁爱上我,但我只想搞科研”的剧本。美国国防部(五角大楼)最近对 AI 新秀 Anthropic 彻底失去了耐心,直接甩出了一份周五截止的最后通牒。要求很简单:请把你们家 Claude 模型里那些“禁止暴力”、“禁止武器开发”的防火墙统统拆掉,我们要的是一个能直接上战场的 AI,而不是一个满口仁义道德的心理医生。1
甲方爸爸的愤怒:不会打仗的 AI 要你何用?
这场闹剧的核心,在于五角大楼想让 AI 实现“全合法用途”的自由,包括武器研发、情报收集甚至是实战指挥。然而,Anthropic 的创始人们——那群从 OpenAI 出走、号称要打造“最安全 AI”的理想主义者——却在合同里塞满了“不准杀人、不准监控”的条款。2
国防部长皮特·赫格塞斯(Pete Hegseth)此前更是直接在公开场合阴阳怪气:“五角大楼不需要那种‘不允许你打仗’的 AI 模型。”2 意思很明确:你要么把 Claude 的“和平鸽”属性洗掉,要么就带着你那 2 亿美元的合同卷铺盖走人。
行业“内卷”:隔壁家的孩子已经“入伙”了
相比之下,Anthropic 的邻居们显然更懂得如何“顺从”。OpenAI 和 Google Gemini 已经乖乖加入了面向军事人员的 AI 平台,服务着约 300 万用户。2 就连马斯克的 xAI 也在旁边虎视眈眈,随时准备接手这笔泼天的富贵。
“看看人家隔壁的小 O(OpenAI),文档分析、报告生成样样精通,还没那么多废话。” —— 这大概就是五角大楼官员们现在的内心独白。
更有趣的是,Anthropic 一边在正面战场上硬刚,一边却被爆出“后院起火”。根据《华盛顿邮报》的爆料,通过大数据公司 Palantir 这个“中间商”,Claude 实际上已经被美军用于针对委内瑞拉相关行动的情报分析中。1 这种“明面上立牌坊,背地里被动参军”的局面,让 Anthropic 的处境尴尬得能抠出个三室一厅。
技术大揭秘:所谓的“道德护栏”到底是啥?
Anthropic 一直标榜的“宪法 AI”(Constitutional AI)技术,本质上是给模型注入了一套核心价值观,让它在面对危险指令时会自动触发“拒绝机制”。
- 全自主武器系统: 禁。Claude 绝对不会帮你优化自杀式无人机的路径。
- 国内大规模监控: 禁。FBI 想用它来追踪平民?门都没有。
- 武器开发: 禁。想让它写个新型炸药配方?它会劝你多喝热水。
但五角大楼认为,这些所谓的“护栏”在国家安全面前就是绊脚石。在他们看来,私人公司不应该对“合法军事行动”指手画脚。3 这种“技术理想主义”与“国家机器暴力”的硬碰硬,已经成了硅谷当前最大的瓜。
未来预测:是跪着挣钱,还是站着破产?
Anthropic 现在正处于一个微妙的十字路口:公司正寻求以 3500 亿美元的离谱估值进行融资。3 如果真的弄丢了五角大楼这块金字招牌,投资人还会不会继续为这份“高尚的坚持”买单?
随着特朗普政府将国防部改名为“战争部”,这种地缘政治压力只会越来越大。如果 Anthropic 坚持不撤掉护栏,他们不仅可能失去 2 亿美元的合同,还可能被贴上“AI 末日论者”或“不爱国”的标签,在未来的资源竞争中被边缘化。3
面对周五的 DeadLine,Claude 到底是会进化成“战争机器”,还是继续做那个安静的“扫地僧”?我们拭目以待。
引用
-
【即時新聞】拒絕放寬軍事限制恐丟訂單!Anthropic與五角大廈談判陷僵局 · CMNews · (2026/01/30) · 检索日期2026/02/27 ↩︎ ↩︎
-
五角大楼用Claude执行军事任务 · 美轮美换The American Roulette · (2026/02/24) · 检索日期2026/02/27 ↩︎ ↩︎ ↩︎
-
堅守道德護欄惹怒五角大廈?Anthropic 2 億美元國防AI 合約陷危機 · TechNews 編輯台 · (2026/01/30) · 检索日期2026/02/27 ↩︎ ↩︎ ↩︎