鼠标点3下就能锁定打击?五角大楼曝光美军AI大脑
【导读】当大众还在热衷于让大模型编代码、写周报或者生成搞笑图片时,硅谷最顶尖的AI技术,已经悄悄渗入了五角大楼的「杀伤链」。
「我们已经将杀伤链,从小时压缩到分钟」。
3月12日,美国国防部首席数字与人工智能官Cameron Stanley在演示「(Maven Smart System,简称Maven)」说道。
他在视频中展示了Maven如何将美军原有的8到9个繁杂系统整合到一个单一的可视化界面中,将原本需要几小时的「杀伤链(Kill Chain)」闭环大幅压缩到几分钟。
糟糕透顶、毛骨悚然、为什么如此轻描淡写地描述自动化杀人……
演示视频下方,网友评论瞬间炸锅。



Stanley的演示,让人看到大模型已深度嵌入美军决策链条,成为其「战争大脑」。
据《华尔街日报》《华盛顿邮报》等报道,Claude参与了美军在海外的防务行动
当AI能够协助军队,将传统战争几个小时的「杀伤链」闭环缩短至几分钟,未来战争的形态,已被彻底改写。
揭开Project Maven的神秘面纱
这场巨变的起点,始于美国国防部那个被称作Project Maven(算法战争跨职能团队)的神秘项目。
而此次演示Maven系统的Cameron Stanley,刚刚于今年1月,被任命为美国国防部首席数字与人工智能官(CDAO),此前,他曾担任过Project Maven的负责人。

美国国防部首席数字与人工智能官Cameron Stanley
在视频中,Stanley回顾了Project Maven项目诞生的背景。
2016 年,时任美国国防部长的Ashton Carter提出了「第三抵消战略」。
他认为,继核武器(第一抵消)、隐身与精确制导(第二抵消)之后,21世纪美军的真正优势,在于「决策优势」:
谁能比对手更快地做出更好的决定,谁就能赢。
而Project Maven项目,正是在这样的背景下应运而生的。
自2017年以来,Palantir一直是Project Maven的主要承包商,这是国防部一项旨在将AI应用于战争场景的计划。
Stanley称,最初Project Maven的设想只是「把AI交给战士」。
美军在反恐战争中积累了海量的无人机侦察画面,人类分析师每天盯着屏幕16个小时不仅低效,而且极易因疲劳漏掉关键信息。
于是,五角大楼希望用计算机视觉算法,来自动识别画面中的汽车和人员。
「我们以为把AI交给战士,它就会起作用。但我们错了。」
Stanley发现,单点的AI根本无法有效面对实战场景。整个指挥中心没有任何自动化的流转,AI沦为了一座孤岛。
真正的问题不是AI识别准不准,而是原有流程太碎片化了。

视频中展示在引入Maven之前,美军演习中心的内部真实场景,指挥官如何被困在凌乱的白板、墙上贴着的静态纸质地图,以及正在播放PPT的碎片化信息中。
这些孤立的计算机视觉算法,成了一个信息过载制造机,反而加重了人类的认知负担。
于是,Palantir开发了一款名为Maven Smart System的产品,它是一个统合了八九个系统的「超级中枢」 。
Maven将原本分散在八九个不同系统里的数据流和算法全部整合在了一个界面上,这种整合让士兵从「找不同」的认知负担中解脱出来,将碎片化的数据「粘合」在一起,变成可用的作战指令。
Stanley介绍,如今这个平台如今正被部署到全军:陆军、空军、太空军、海军、海军陆战队,甚至包括负责伊朗军事行动的中央司令部。
与此同时,Palantir还向陆军出售了集成Dossier工具的情报数据平台AIDP,该平台集成了来自Maven以及至少另外四个政*系统的数据。
据军方评估材料称,AIDP能够在军事行动前准备情报,还能以「图形化」方式展示部队和武器的位置,它所集成的Dossier可以形成「持续更新的情报研判」,在最终情报摘要出炉前持续更新。
嵌入「杀伤链」的AI聊天机器人
Palantir的AIP(Artificial Intelligence Platform),长期被用于美国政*和军方情报系统,可对海量数据进行融合分析,识别目标、追踪活动,并预测潜在威胁。
它并非一个独立的平台,而是以AI智能体(AIP Assistant/Agent)的形式,深度嵌入在Palantir开发的Foundry或Gotham等现有系统中。
AIP赋予了使用者极大的自主权:可根据任务需求和保密级别,自由调用Claude、GPT-4或Llama等大模型,并严格控制AI生成回答时所调用的训练数据。
这一特性,对于处理高度机密的情报和国家安全任务至关重要。
如今,这种AI能力正在悄悄改变现代战争的决策逻辑。
早在2023年,Palantir发布的一段AIP(人工智能平台)宣传视频中,已经展示了美军如何将大模型深度嵌进情报分析、目标标定和行动生成的「杀伤链」关键环节中。

操作界面显示左侧是聊天式交互区,右侧是战场概览地图,标记有各种军事资产如军事指挥部、通信设施、装甲攻击营等。
操作员通过聊天输入「任务MQ-9无人机捕捉该位置的视频」,AI助手响应,系统显示「任务请求已发送」和「任务请求已批准」。
界面切换到无人机捕获的视频回放,视频确认潜在威胁,无人机影像显示敌方T-80主战坦克。系统自动分析影像,突出威胁位置,并在地图上标记。
操作员输入「生成三种针对该敌方装备的行动方案(COAs)」。
AI很快生成三种行动方案,指挥官批准了COA3(方案三)后,输入指令,如分析战场、生成路线、检查弹药并同步分配了电子干扰设备,以瘫痪敌方的通信网络。
发现目标、制定计划、排兵布阵、实施电子战,过去需要一群参谋熬几个通宵的工作,现在已经被高度可视化。
Maven系统将原本极其繁琐的军事流程(如从卫星图像发现目标,确认身份,检查附近可用弹药,请求授权,执行)简化为了类似电脑软件的操作流。

在视频中,Stanley演示了Maven如何将情报、后勤和决策无缝连接,操作员只需完成几次简单的鼠标点击:左键单击、右键单击、左键单击。
传统的「观察-导向-决定-行动」(OODA)循环被重构,杀伤链从数小时压缩到了几分钟。
硅谷的底线与五角大楼的怒火
当AI让杀戮变得前所未有地轻易,一场横亘在硅谷与五角大楼之间的「边界之争」彻底爆发了。
2026年2月下旬,面对美国政*无条件开放Claude模型的强硬要求,Anthropic选择了拒绝,并死守两条拒不让步的安全红线:
禁止用于对美国人进行大规模监控。
禁止用于完全自主武器系统。
在Anthropic看来,一旦大模型被无限制地接入军方机密数据库,并被授权「自动化杀戮」,潘多拉魔盒将彻底打开,后果无人能够承担。
但这番技术坚守,立刻招致了五角大楼的铁腕还击。
军方毫不留情地将Anthropic定性为「供应链风险」,在国家安全的语境下,这个标签无异于一张商业上的「死刑判决书」。
作为反击,Anthropic随即提起两项诉讼,指控政*非法报复并要求撤销该黑名单认定。

这场硬碰硬的对峙,叠加近期伊朗战事的迅速升级,让外界的目光重新聚焦到了Anthropic与军方盘根错节的过往,尤其是它与军工巨头Palantir的深度捆绑。
早在2024年11月,Claude就被深度集成到了Palantir出售给美军的情报软件中。
Palantir表示,Claude的集成可以帮助分析人员挖掘「数据驱动的洞察」,识别模式,并支持在「时间敏感的情况下」做出「有依据的决策」。
2025年7月,Anthropic宣布了与美国国防部签订的一份为期两年的、上限金额为2亿美元的合同协议,根据该协议,Anthropic将开发前沿人工智能能力,以推动美国国家安全的发展。

曾经紧密的合作为何突然走向决裂?
如今,Anthropic与美国政*的冲突,早已超越了普通的商业纠纷。它的本质,是AI技术的缔造者与它的使用者之间,关于AI授权与安全底线较量。
谁来为战争踩下刹车?
随着AI技术,越来越深地渗透进军事作战的神经中枢,我们必须正视到:战争的底层逻辑,已发生了不可逆转的质变。
Maven所展示的,绝不仅是给武器装上一个更聪明的「AI大脑」,而是将多源情报、目标识别、战术生成与协同打击,整合进同一个由AI驱动的系统。
将过去高度分散、依赖「人力搬运」的战争,变成了一个更高效、自动化的「流水线」。
当Stanley宣称已将「杀伤链」闭环从数小时压缩到几分钟时,也预示着战争已经被定义成一套由AI驱动新的数据工作流。
当系统、模型与指挥权被无缝衔接;当AI只需几秒钟就能跑完从「雷达索敌」到「生成致命打击方案」的全过程,我们不禁也要深思:
在这个被无限加速的链条中,人类究竟还保留了多少真实的决策权?人类是否还能握紧最后那道安全护栏?
一旦被算法全面武装的战争机器启动,谁还能在关键时刻为它踩下刹车。
参考资料:https://www.reddit.com/r/ArtificialInteligence/comments/1ru2ont/palantir_pentagon_system/%20%20
https://www.wired.com/story/palantir-demos-show-how-the-military-can-use-ai-chatbots-to-generate-war-plans/
https://youtu.be/yrtDgoqWmgM
声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。
AI 中文社