TL;DR:
那个口口声声说“AI要安全、拒绝暴力”的Claude,竟然帮着美军在委内瑞拉“搞事情”了。前脚刚立好“和平鸽”人设,后脚就被曝出参与了导致83人丧生的军事行动,Anthropic这回是真的尴尬到抠脚。
本以为AI模型还在卷写诗、卷代码、卷谁的逻辑更像人类,结果美军反手就是一个反转:AI已经开始卷实战了。
近日,《华尔街日报》投下一枚重磅炸弹:美军在针对委内瑞拉马杜罗的突袭行动中,竟然动用了Anthropic公司的明星模型——Claude。1 对,就是那个在官网上明文规定“禁止用于暴力、武器研发或监控”的、自诩为“最安全”的AI。
这波操作,直接让科技圈和伦理学界集体“炸麦”了。
现实版“天网”?Claude的秘密任务
事情是这样的:今年1月初,美军对委内瑞拉发动了一场堪比好莱坞大片的军事打击,强行控制了马杜罗及其妻子。根据委内瑞拉国防部的说法,这场行动伴随着对首都加拉加斯的大规模轰炸,造成了83人死亡。2
而Claude在这场血雨腥风中扮演了什么角色?虽然具体战术细节还锁在五角大楼的保险柜里,但知情人士透露,它是通过大数据巨头Palantir的“中间商赚差价”进入战场的。3 从汇总情报文件到甚至可能涉及自主无人机的操作,AI正在从幕后的“文职秘书”变成前线的“参谋长”。4
调侃点评: Claude:我当时害怕极了,我以为只是帮他们写个行动简报,结果他们带我去炸炸炸?
Anthropic的“人设崩塌”现场
这事儿最抓马(Drama)的地方在于,Anthropic一直以来都是AI界的“清流”代表。其创始人达里奥·阿莫代伊(Dario Amodei)曾多次在公开场合呼吁:AI太危险了,必须得有护栏!必须得加强监管!2
结果,自家产品却成了五角大楼的“秘密武器”。这感觉就像一个每天宣扬素食主义的博主,突然被发现在深夜偷偷啃全家桶。
面对质疑,Anthropic的发言人开启了标准的“外交辞令”模式:
“我们无法对具体行动发表评论……但任何使用都必须遵守我们的政策。” 2
翻译一下就是:“我知道你很急,但我现在只能表示我很急。”
这种尴尬不仅仅是公关层面的。据悉,Anthropic内部对五角大楼的使用方式极其不满,甚至已经闹到了可能导致一份价值2亿美元的政府合同告吹的地步。1 毕竟,对于一家以“安全”为卖点的公司来说,这波是真的“破防”了。
五角大楼:我们要的是战友,不是老师
不过,五角大楼那边显然不吃这一套。
现任国防部长赫塞斯在此前的一场活动中直接“开麦”硬刚,表示五角大楼不会使用那些**“不让你打仗的AI模型”**。2 在军方看来,如果AI在关键时刻因为“道德限制”而拒不执行任务,那和废铁有什么区别?
这场“技术圣母”与“钢铁直男”的对决,本质上是AI发展的一个十字路口:
- 一边是理想主义: AI应该是人类文明的增量,不能异化为杀人工具。
- 一边是现实主义: 科技竞争就是地缘政治的延伸,你不用,你的对手也会用。
下一个风口,是“战争AI”吗?
虽然Anthropic还在纠结伦理,但美军的AI化进程已经像脱缰的野马。除了Claude,Palantir等公司早已深耕此道,将AI与无人机、监控系统深度绑定。5
这次委内瑞拉行动只是冰山一角。它向世界宣告了一个残酷的现实:AI的“纯真时代”已经结束了。 当最先进的大语言模型被推向战场,它生成的不再是无害的文字,而是关乎生死的决策。
那么问题来了:如果未来的AI不仅能帮你写周报,还能决定导弹的飞行轨迹,你还敢跟它说“早安”吗?
引用
-
US military used Anthropic’s AI model Claude in Venezuela raid, report says · The Guardian · (2026/02/14) · 检索日期2026/02/15 ↩︎ ↩︎
-
“时机尴尬”!外媒爆“美对委军事行动使用AI模型Claude”,涉事美企回应 · 环球网 · (2026/02/14) · 检索日期2026/02/15 ↩︎ ↩︎ ↩︎ ↩︎
-
緝捕馬杜洛震驚全球 美軍傳動用AI工具Anthropic Claude · AASTOCKS · (2026/02/14) · 检索日期2026/02/15 ↩︎
-
生擒马杜罗传美军使用Claude 部署AI模型首次支援机密作战 · VanPeople · (2026/02/14) · 检索日期2026/02/15 ↩︎
-
天網近了?Claude傳被用於美軍抓馬杜洛秘密行動 創AI模型首例 · 聯合新聞網 · (2026/02/13) · 检索日期2026/02/15 ↩︎