2026年3月5日,美国国防部正式将人工智能独角兽Anthropic及其产品认定为“供应链风险”,这一史无前例的裁定标志着顶级AI实验室与政府军事诉求之间的矛盾彻底激化。
据彭博社援引国防部高层消息,此次认定源于双方长达数周的对峙:Anthropic首席执行官达里奥·阿莫迪明确拒绝军方将其AI系统用于对美公民的大规模监控,或驱动缺乏人类干预的完全自主武器;而五角大楼则坚称私人承包商不应限制军方对前沿技术的使用。

此次定性对行业格局产生剧烈冲击,因为“供应链风险”标签此前通常仅针对外国敌对势力。受此影响,任何与五角大楼合作的机构均须证明其未使用Claude系列模型。目前,美军在伊朗等中东地区的军事行动高度依赖集成在Palantir Maven系统中的Claude模型进行作战数据管理,禁令可能导致现行军事智能体系面临重构。
与Anthropic的坚守不同,OpenAI已与国防部达成协议,允许军方将其系统用于“所有合法用途”,其总裁格雷格·布罗克曼近期更向相关政治组织捐赠2500万美元。对此,阿莫迪斥责国防部的行动具有“报复性”,并暗示这与他拒绝支持特定政治立场有关。
目前,OpenAI与谷歌内部数百名员工已发起抗议,呼吁撤销此类认定。此次事件不仅暴露了AI企业在军事伦理与商业准入之间的艰难抉择,更预示着前沿AI治理正进入由政府意志主导的强力监管时代,科技企业的自主权正面临严峻挑战。