刚到底了?Anthropic 拒绝给五角大楼“开挂”,被威胁打入冷宫:要么造武器,要么滚出供应链!

温故智新AIGC实验室

TL;DR:

Anthropic 因为拒绝让自家 AI 变成“电子士兵”,正面临五角大楼的最后通牒:要么放开限制让美军拿来搞武器,要么就被贴上“供应链风险”标签彻底踢出局。这一波是“硅谷良心”与“甲方爸爸”的硬刚,2 亿美元的大单说悬就悬了。

在硅谷的 AI 圈子里,Anthropic 一直立的是“安全、克制、有伦理”的人设。但最近,这位“优等生”遇到了职业生涯里最难搞的甲方——美国国防部(Pentagon)。

事情的起因很简单,也很劲爆:五角大楼向包括 Anthropic 在内的四家 AI 巨头施压,要求他们必须允许军方将 AI 工具用于所有合法用途。这里的“所有”可不是帮你写个公文或者整理下会议纪要,而是涵盖了武器研发、情报搜集甚至直接的战场行动1

面对这种“带枪”的要求,Anthropic 的态度异常坚决。他们明确划出红线:严禁将 Claude 模型用于自主武器开发和大规模监控2

甲方爸爸的最后通牒:不听话就“拉黑”

五角大楼显然没耐心听 Anthropic 念叨什么“AI 安全指南”。

根据泄露的消息,美国国防部高级官员埃米尔·迈克尔(Emil Michael)立场极其强硬。他认为,如果 Anthropic 拒绝配合军方的作战需求,那么这家公司就可能被标记为**“供应链风险”**2

调侃式点评: 在国防采购的世界里,被贴上“供应链风险”的标签,基本上等同于在社交平台上被“全网封杀”。这不仅意味着现在的订单保不住,以后想再赚政府的钱也难如登天。

这种威胁并非说说而已。目前,双方价值约 2 亿美元的合作协议已经亮起红灯。如果 Anthropic 坚持不肯在军事用途上“松绑”,五角大楼暗示将寻找替代方案,逐步把 Anthropic 从供应商名单里剔除3

伦理还是订单?Claude 的“良心”有点贵

其实,Anthropic 也不是不想做政府生意。今年 6 月,他们还正儿八经地推出了 Claude Gov 系列模型,专门针对国防场景定制,试图在“遵守伦理”和“服务国家”之间走钢丝4

但问题在于,五角大楼想要的不是一个阉割版的“文官模型”,而是一个能随时奔赴前线的“全能参谋”。

  • 五角大楼的逻辑: AI 是未来的新质战斗力,如果核心模型在关键时刻掉链子(比如因为触发了“不得伤害人类”的预设而拒绝执行军事分析),那这模型要来何用?
  • Anthropic 的底线: 公司的创始团队大多是从 OpenAI 出走的“安全派”,他们的初心就是防止 AI 走向失控。如果 Claude 变成了武器的“大脑”,那公司的人设就彻底崩塌了。

相比之下,竞争对手们似乎表现得更为“灵活”。OpenAI 早已删除了禁止将技术用于“军事和战争”的明确条款,并启动了“OpenAI for Government”计划4。这种对比,让 Anthropic 的坚持显得既孤勇又有些尴尬。

行业“地震”:谁在害怕 AI 变“杀手”?

这起冲突之所以引起轩然大波,是因为它触及了 AI 发展最核心的痛点:当技术拥有了左右生死的能力,开发者是否还有权控制它的用途?

如果 Anthropic 最终妥协,意味着商业公司的伦理准则在国家安全面前必须让路;如果 Anthropic 硬刚到底被踢出局,那么未来的军事 AI 市场可能会被那些更愿意“配合”的公司垄断。

这不仅是一场关于 2 亿美元合同的争夺战,更是一次关于 AI 治理权的国家级博弈。是让 AI 成为守护安全的盾,还是让它变成效率倍增的矛?五角大楼的这份通牒,把这个问题直接顶到了所有人的脑门上。

目前,这场“分手戏码”还没演到大结局。Anthropic 是会为了生存选择“真香”,还是坚守底线成为硅谷的一段传说?我们拭目以待。

引用