这些天,Anthropic与白宫针对军事AI发生了正面冲突。这次事件的本质,不是“Anthropic 反对美国军方使用 AI”,而是美国政府与一家前沿模型公司,围绕“谁有权为军事 AI 设定最后两条不可逾越的红线”发生了公开冲突。
Anthropic的公开说法是:它支持绝大多数国家安全用途,且早已把模型部署进美国政府机密网络;它坚持不放开的,只有两项——对美国人的大规模国内监控,以及完全脱离人类决策回路的全自主武器。而政府一侧的立场则是:只要属于“合法用途”,私人公司就无权再加一层价值观约束。 2月27日,特朗普公开要求联邦机构停止使用Anthropic技术,五角大楼随后表示要把Anthropic列为“供应链风险”,Anthropic则表态会在法庭上挑战这一决定。
从Anthropic自己两篇声明(1.Statement on the comments from Secretary of War Pete Hegseth 2.Statement from Dario Amodei on our discussions with the Department of War)看,它想传达的是一种很明确的叙事:“我们不是不支持国防,而是支持国防但拒绝两个极端用途。” Dario Amodei在2月26日的声明里强调,Anthropic一直在积极为美国国安体系服务,声称自己是首个把前沿模型部署到美国政府机密网络的前沿AI公司之一,并且Claude已被广泛用于情报分析、建模仿真、作战规划、网络行动等任务;但他们坚持两条例外——不做大规模国内监控,不做当前技术条件下不可靠的全自主武器。Anthropic还说,这两条限制据其所知到目前为止没有影响任何政府任务。
国防部/战争部部长Pete Hegseth的声明则把Anthropic描述成一个试图以服务条款和“有效利他主义”意识形态来绑架国家军事决策的科技公司;其中最关键的话是“Department of War must have full, unrestricted access … for every lawful purpose”和“their true objective is to seize veto power over the operational decisions of the United States military”。换句话说,政府并不把这件事理解成“两个窄红线”,而是理解成:一家私企正在索取对军事用途的否决权。 这就是为什么措辞会如此激烈,甚至上升到“betrayal”“American lives”“national security”这种政治-道德定性。这个政治解读,也和路透社对冲突核心的描述一致:五角大楼要求“任何合法用途”都必须被允许,而Anthropic拒绝删除额外护栏。
总统特朗普在Truth Social声明则把这场本来带有合同与技术治理色彩的争议,进一步转化成了主权与文化战争叙事:不是“政府与承包商在谈安全边界”,而是“美国绝不允许一个激进、觉醒、失控的AI公司告诉军队该怎么打仗”。这一步非常关键,因为它意味着争议已经脱离常规采购谈判层面,进入总统级政治动员层面。路透社也证实了这一点:特朗普公开要求政府停止与Anthropic合作,并设定六个月过渡期;与此同时,五角大楼要把Anthropic列为供应链风险。
如果把双方话术压缩成一句话,那么Anthropic的核心主张是:“国家可以用我们的模型打仗,但不能要求我们去支持大规模监控本国公民,也不能要求我们把尚不可靠的前沿模型直接变成无人决策的杀伤系统。”
而政府的核心主张是:“军事和国家安全用途的边界,只能由美国法律和美国政府决定,不能由一家供应商通过产品条款来额外加锁。”
这其实不是简单的价值冲突,而是治理权冲突:模型开发者是否可以在国家安全领域保留“结构性否决权”。
从技术与政策角度看,Anthropic的两条红线为什么如此敏感?因为它们恰好卡在前沿AI最具争议、也是国家最不愿意被外部设限的两个方向上。
第一,大规模国内监控。Amodei的说法是,现代AI可以把原本分散、零碎、单独看似无害的数据拼接成对个人生活的全面画像,而法律尚未跟上这种能力增长。
第二,全自主武器。Anthropic不是反对所有军用自动化,而是反对把当前前沿模型直接放进“脱离人类决策回路”的致命系统,因为它认为今天的模型可靠性还不够。也就是说,Anthropic反对的不是军事AI整体,而是“人在回路之外”的两类用途。
但政府方面也不是完全承认Anthropic对它的描述。路透社引述五角大楼首席发言人Sean Parnell在X上的表态称,国防部门既无意用AI对美国人实施大规模监控(那是违法的),也不想开发没有人类参与的自主武器。这说明一个重要矛盾:双方不仅在争原则,还在争“事实描述权”。 Anthropic把政府要求理解为必须去掉这两条护栏;政府则公开说自己本来也没有要那样做。也正因此,问题可能不只在“最终用途是什么”,还在于合同文本到底写不写、写成什么样、由谁解释、谁拥有最终裁量权。
这件事表面上是伦理之争,深层上却是合同语言与治理架构之争。如果军方坚持“任何合法用途”,那就意味着模型公司对未来尚未明确写入条款、但法律上可能被解释为许可的场景,几乎不再保有产品层面的限制力;而Anthropic要保留的,正是这层超越最低法律门槛的、由模型提供方主动加上的约束层。这实际上是在争:战场AI的最后一道刹车,到底放在政府手里,还是放在模型供应商与合同双重机制手里。
为什么事情会升级到“供应链风险”这么重的武器?因为这不是普通的合同终止。根据美国法典10 U.S.C. § 3252,相关机制主要针对covered procurement action / covered procurement中的供方排除、分包限制等采购动作。Anthropic在声明中就抓住这一点,主张即便正式采用这种指定,法律上也只应影响国防部合同工作中对Claude的使用,而不应扩展成“任何与军方有业务的公司都不能和Anthropic做任何商业往来”。路透社也提到,五角大楼一些更强硬威胁的合法性受到了质疑。换句话说,政府在用最强采购杠杆施压,而Anthropic在用法理边界反击。
从商业层面看,这对Anthropic非常危险,因为“供应链风险”一旦被广义执行,就不只是丢一个政府合同,而是可能把它从整个军工承包生态里切出去。路透社直说,这种指定可能让成千上万家承包商在为五角大楼工作时无法使用Anthropic的AI;有政府合同律师甚至把这种黑名单效应形容为对Anthropic业务的“核打击级”冲击。也就是说,政府不是在单点处罚,而是在向整个国防产业链发信号:谁想做国防,就别把模型控制权交给坚持独立红线的供应商。
总统特朗普和国防部/战争部部长Pete Hegseth均提到了“六个月过渡期”。这表明政府想同时达成两个目标:
一是政治上高压立威,公开告诉所有AI公司“不许对军方设限”;
二是操作上避免马上停摆,因为Anthropic显然已经嵌入了实际国防工作流,不可能一夜之间拔掉。Anthropic自己的声明也说,如果被迫下线,它愿意协助平滑迁移。换言之,这不是“你不重要,所以马上踢掉你”,而更像是“你很重要,但我们也要借你立规矩”。
还有一个非常关键、也最耐人寻味的后续信号:路透社报道说,OpenAI随后宣布了自己在国防部机密网络中的新协议,而且Sam Altman表示,协议里包含了对武器系统中人类责任以及不进行大规模美国国内监控的原则与技术护栏。不过路透社也明确说,当时尚不清楚这些条款与Anthropic提出的红线是否实质不同。这个细节非常重要,因为它说明事情未必只是“Pentagon绝对拒绝任何护栏”,更可能是:Pentagon拒绝的是Anthropic希望保留的那种由供应商独立解释、独立坚持、可形成实质否决权的护栏架构。
此次事件的综合判断和总结:
第一,这是一场“军事AI治理权”的里程碑式冲突。
核心不是AI能不能用于国防,而是军方是否接受前沿模型公司在极少数高风险用途上保留最终刹车权。Anthropic说要保留两条刹车;政府说刹车只能由法律和总统体系来踩。
第二,政府在政治权力和采购杠杆上占上风,但Anthropic在伦理叙事和部分法律论证上并不弱。
政府能靠总统命令、国防采购、供应链指定等工具迅速施压;但Anthropic的公开立场并不是“反军方”,而是“支持绝大多数用途,只拒绝两项高风险用途”,而且它对10 U.S.C. § 3252适用范围的反击并非没有法律抓手。
第三,最深远的后果可能不是Anthropic一家公司的得失,而是整个AI行业今后与国家安全系统打交道的默认规则会被重写。
如果这次政府成功把“任何合法用途”打成默认模板,那么以后所有想做国防生意的模型公司都会面对同一问题:你到底是卖一个工具,还是还想保留价值边界? 一旦答案被行政力量固定,前沿AI公司的“安全承诺”就会越来越从公开原则退化为私下谈判。
第四,从公共叙事上看,截图里的话术说明这件事已经不再只是政策争议,而是被故意包装成“国家主权 vs 硅谷意识形态”的政治剧。
这会让妥协更难,因为一旦双方都把问题上升到文明价值和国家忠诚层面,就很难再通过普通合同文本的微调来体面收场。