TL;DR:
Anthropic 带着它的“道德洁癖”去五角大楼谈生意,结果双方因为 AI 能不能“开火”吵翻了。2 亿美金的大单现在悬在半空,马斯克的 xAI 已经在旁边磨刀霍霍准备接盘,这场“硅谷理想主义 vs 华盛顿实战派”的史诗级拉锯战才刚刚开始。
原本以为硅谷大厂和五角大楼的合作是“强强联手、征服星辰大海”,结果 Anthropic 却给军方大佬们上了一课:什么叫“我有我的底线”。最近,这家以“安全”为立命之本的 AI 初创公司,因为坚持给自家的 Claude 模型加装“道德护栏”,直接把一份价值 2 亿美元的国防合同谈崩了。1
说白了,Anthropic 想要的是一个能帮政府写报告、搞物流的“三好学生”,而五角大楼(现在被特朗普政府更名为“战争部”)想要的,却是一个能直接上战场、且不掉链子的“超级战士”。
道德护栏 vs. 战场杀手:AI 到底听谁的?
这场冲突的焦点在于 Anthropic 极其硬核的“使用条款”。作为一家由 OpenAI “叛将”们创立的公司,Anthropic 骨子里就刻着对 AI 失控的恐惧。他们坚持,Claude 模型绝对不能用于“国内监控”,更不能在缺乏人类监督的情况下参与“自主致命行动”。2 简单来说,就是武器瞄准可以,但最后那个按钮必须得由人来按,且绝对不能用来盯着自家人。
“我们支持国防,但 AI 不应该让我们变得像‘专制对手’一样。” —— Anthropic 首席执行官达里奥·阿莫代伊(Dario Amodei)在博客中如是说。3
这种“我可以帮你,但你不能拿我做坏事”的态度,在五角大楼看来简直就是“端起碗吃饭,放下筷子骂娘”。国防部官员们的主张非常直接:只要符合美国法律,商业 AI 就应该能无限制地部署到任何合法军事活动中。2 毕竟,在瞬息万变的战场上,如果 AI 突然跳出一个弹窗说“对不起,这不符合我的道德准则”,那前线的士兵估计得集体破防。
行业“地震”:谁在看笑话,谁在挖墙脚?
Anthropic 的“清高”让其在华盛顿的日子越来越不好过。白宫官员大卫·萨克斯(David Sacks)直接给他们贴上了“AI 末日论者”的标签。2 而新任国防部长皮特·赫格塞斯(Pete Hegseth)在宣布与马斯克的 xAI 合作时,更是阴阳怪气地补了一刀:“我们不会采用那种‘不让你打仗’的 AI 模型。”2
- xAI (Grok): 马斯克主打一个“反觉醒”,只要给钱,护栏什么的都好商量。
- OpenAI & Google: 也在积极争取军方订单,虽然也有伦理考量,但显然没 Anthropic 这么“轴”。
- Palantir: 作为一个中间商,它曾带着 Claude 参与了针对委内瑞拉的军事任务,结果 Anthropic 事后追问用途的行为,让五角大楼感到被冒犯了。4
现在的情况是,五角大楼甚至威胁要将 Anthropic 列入“供应链风险黑名单”。4 这可不是闹着玩的,一旦进了黑名单,Anthropic 不仅丢了这 2 亿美金,以后所有跟美军合作的企业恐怕都得跟它撇清关系。对于正准备冲刺上市、寻求 3500 亿美金估值的 Anthropic 来说,这无异于在上市敲钟前踢到了钢板。
未来预测:硅谷能否定义战争的底线?
这不仅仅是一家公司和一份合同的事,它预示着一个大趋势:当 AI 真正具备改变战争格局的能力时,技术专家还能否保住他们的“伦理高地”?
目前,美军陷入了一个尴尬的境地。虽然他们看 Anthropic 不顺眼,但不得不承认,在某些机密应用场景中,Claude 确实比其他模型更好用。4 这种“爱恨交织”的关系让谈判陷入了僵局。
如果 Anthropic 最终妥协,那将是硅谷伦理主义的重大退却;如果它坚持到底并最终被封杀,那我们就将看到一个完全由“实战派”主导的 AI 军备竞赛时代。无论结局如何,这场关于“代码与良知”的博弈,都将成为 AI 发展史上的一个关键转折点。
引用
-
Anthropic与五角大楼就AI限制产生分歧,2亿美元合同面临风险 · 华尔街日报 (2026/1/30) · 检索日期2026/1/30 ↩︎
-
堅守道德護欄惹怒五角大廈?Anthropic 2 億美元國防 AI 合約陷危機 · TechNews · 編輯台 (2026/1/30) · 检索日期2026/1/30 ↩︎ ↩︎ ↩︎ ↩︎
-
2亿美元合同陷僵局!传Anthropic因限制AI军事用途与美国防部产生分歧 · 新浪财经 (2026/1/30) · 检索日期2026/1/30 ↩︎
-
五角大廈擬封殺Anthropic?美國防部長:軍事用途受限恐成國安威脅 · ABMedia (2026/1/30) · 检索日期2026/1/30 ↩︎ ↩︎ ↩︎