五角大楼将Anthropic列为“供应链风险”:一场AI伦理与军方需求的正面碰撞

2026 年 3 月 5 日,美国国防部做出了一项前所未有的裁定:将人工智能独角兽企业 Anthropic 及其产品认定为“供应链风险”。这一决定标志着顶级 AI 实验室与政府军事诉求之间的矛盾彻底浮出水面,并走向激化。
据彭博社援引国防部高层消息,此次认定的背后,是双方持续数周的对峙。Anthropic 首席执行官达里奥·阿莫迪明确拒绝军方将其 AI 系统用于对美国公民的大规模监控,也不接受将技术用于缺乏人类干预的完全自主武器。而五角大楼方面则持强硬立场,认为私人承包商不应限制军方对前沿技术的使用权限。
“供应链风险”标签罕见落地,美军现役系统面临重构
这一标签的意义非同寻常——此前,“供应链风险”通常只用于指代外国敌对势力。如今,它被贴在一家本土 AI 明星企业身上,直接冲击了行业格局。根据新规,任何与五角大楼有合作关系的机构,都必须证明其未使用 Claude 系列模型。
问题在于,美军目前在伊朗等中东地区的军事行动中,高度依赖集成在 Palantir Maven 系统中的 Claude 模型进行作战数据管理。若禁令严格执行,现行军事智能体系或将面临重构,甚至影响前线作战效率。
行业分化:OpenAI 选择合作,Anthropic 选择红线
与 Anthropic 的坚守形成鲜明对比的是,OpenAI 已与国防部达成协议,允许军方将其系统用于“所有合法用途”。OpenAI 总裁格雷格·布罗克曼近期更向相关政治组织捐赠 2500 万美元,进一步拉近了与权力中心的距离。
对此,阿莫迪公开斥责国防部的行动带有“报复性”,并暗示这与自己拒绝支持特定政治立场有关。他认为,这不仅是商业准入的剥夺,更是对技术伦理底线的打压。
内部抗议声起,AI 治理进入“强监管时代”
目前,OpenAI 与谷歌内部已有数百名员工发起抗议,呼吁撤销对 Anthropic 的认定。抗议者认为,这种做法不仅打击了企业自主表达伦理立场的权利,也为整个行业树立了一个危险先例。
此次事件暴露出的,是 AI 企业在军事伦理与商业准入之间的艰难抉择。一方面,政府希望将前沿技术纳入国家安全体系;另一方面,部分企业试图守住“不作恶”的红线。而当政府意志成为主导,科技企业的自主空间正在被迅速压缩。
可以预见,前沿 AI 治理正加速进入一个由国家安全逻辑驱动的强力监管时代。而 Anthropic 的遭遇,或许只是这场博弈的开始。
以上关于五角大楼将Anthropic列为“供应链风险”:一场AI伦理与军方需求的正面碰撞的文章就介绍到这了,更多相关内容请搜索码云笔记以前的文章或继续浏览下面的相关文章,希望大家以后多多支持码云笔记。
如若内容造成侵权/违法违规/事实不符,请将相关资料发送至 admin@mybj123.com 进行投诉反馈,一经查实,立即处理!
重要:如软件存在付费、会员、充值等,均属软件开发者或所属公司行为,与本站无关,网友需自行判断
码云笔记 » 五角大楼将Anthropic列为“供应链风险”:一场AI伦理与军方需求的正面碰撞
微信
支付宝