在AI军事化方面,美国国防部、五角大楼终于再不遮遮掩掩了。
美国国防部近日表示,已与七家美国头部人工智能相关企业达成合作协议,将在美国防部涉密网络中接入并应用各家的先进人工智能技术。
这份声明中提到的企业有SpaceX、OpenAI、谷歌、英伟达、Reflection、微软和亚马逊云服(AWS)等公司。这些公司将接入美军6级与7级涉密隔离网络环境,用以优化数据整合效率、提升态势感知能力,并辅助作战人员在复杂作战场景下开展决策。
这份名单几乎囊括了当今世界AI领域的“半壁江山”。

这绝对不能用普通的商业采购行为来看待,也不是简单的“政府与企业技术合作”,而是AI被彻底捆绑在军事力量上的新时代开启。
为什么这么说?
因为这些公司将直接对接美军的绝密网络系统——最高级IL-6和IL-7级。
一句话:人类历史上最强大的军事机器,跟目前最强大的人工智能系统,公开、正式完成了“合体”。
如果说这件事情还不够有冲击力,那么看看它的反例就更让人不寒而栗了:
Anthropic这家目前属于最强之一的人工智能公司,不愿意突破企业的道德底线,在AI使用规则方面不肯和美国国防部达成一致,导致直接被“拉黑”。美国国防部上月将其列为供应链“风险主体”,禁止美军及合作承包商使用其产品。
这一切说明,“AI优先”的军事转型大方向,已经在美军正式确立了。
“算法决定生死”,将会很快(已经应用于中东战争)成为战争的主旋律。
人类,将会何去何从?
一、AI从战争助手升级为“核心大脑”的速度快得吓人在很多科幻片中,我们可以看到“天网”之类的人工智能系统指挥着战争,它们已经不是“参谋”这种配角,而是战争的总指挥。
即便是在一年前,也很少有人敢说AI将会被很快应用到战争大脑之中,因为一年前AI的作用也只是分析一些后勤数据、情报信息等等,或者整合无人机侦查作战的信息。
但没想到的是,2026年AI军事化就突飞猛进。
尤其是在美国国内民众反对声众多的情况下,美国高层执政者却迫不及待地将AI军事化推进到前所未有的层面,这到底是为什么?
答案很简单:这次中东战争,美国高层尝到了甜头。
本次战争美军和中情局开始大量使用AI大模型分析情报数据,效率高得吓人。以前这些数据都是海量,即便用超级计算机分析,也需要人工的大量参与,速度也还是慢。
因为情报信息是很复杂的,比如军队动向和部署、对方高层的位置等信息变动、还有无数个线人随时随地发来的情报……这些信息繁杂而冗余,但必须全部录入系统进行分析,效率通常都很低。
而且还有一点——这些信息都瞬息万变,随时随地都有新的事情发生。这导致以前得到情报以后分析出结论往往至少需要几天甚至几周,这时候军事行动的窗口已经错过了。
但AI改变了这一切。
AI最擅长的事情恰恰补上了以前的短板,就是它特别擅长把各种海量复杂而毫无头绪的信息,整合为一个清晰的结论。
这一次美军行动中,很多关键操作都来自于AI的判断,而且都是正确的,这极大地鼓舞了美军和美国政府高层的信心。
这就是为什么,去年AI军事化还只是一种科幻想象,今年就已经大规模落地推进了。
二、AI已经有权限读取美军最高机密,潘多拉盒子被打开了七家公司,已经被允许把它们的AI模型部署到“影响等级6(IL-6)”和“影响等级7(IL-7)”的美军最高绝密网络系统之中,没有再比这更高的机密等级了。
也就是说,不管是游弋在大洋底的搭载“三叉戟”战略核导弹的核动力潜艇,还是中情局搜集到的最绝密信息,或者核弹发射井的部署,乃至SpaceX的星链搜集到的信息,全部都被AI直接读取。
这意味着,美军指挥体系的中枢神经系统,已经完成了“机器化”。
最高级别的情报研判,很有可能都会由AI做出。
美军之所以这样做,是因为它想“快”。
传统的情报研判,靠的主要还是人脑推演:通过全球情报系统搜集到的信息,通过不断地观察、调整,引发一系列的决策和行动,还是会比较慢的,准确率也未必令人满意。
但现在是这种模式:SpaceX星链提供的即时信息,由英伟达的最强芯片集群高速计算,再通过OpenAI和谷歌的大模型最强版本分析数据并得出结论,决策速度将是过去的无数倍。
在现代战场上,即便只是毫秒级别的决策速度领先,也会带来优先一步的毁灭性打击,将“先发制人”发挥到了极致。
过去美军谈论的都是“网络信息战”,现在已经正式升级到了“算法系统战”。算法、算力正式成为现代战争的决定性因素。
三、潘多拉魔盒被打开,AI军备竞赛已经没有回头路谁最了解AI的恐怖?是那些亲手孕育出AI的工程师。
在此之前,这些企业内部都已经有数以百计的员工联名抗议,担忧技术被用于非人道的残酷军事行动,也有相当多的研发人员因此而选择离职。
但这些根本没用,在美国国家意志的推动下,企业都得就范。
Anthropic本来是美国国防部最重要的合作伙伴,也为最近的中东战争做出了巨大贡献,但却因为不愿意突破AI限制红线,被扫地出门,这种“翻脸”证明了美国军方高层对于AI介入战争的高度渴望。
Anthropic被赶出去的原因,是它坚持算法不能被用于大规模的监控,更不能被拿来控制可以自动决定攻击的那些强大武器。
Anthropic是想要在潘多拉魔盒上,保留一个“底线开关”。
但五角大楼需要的则是“最强战力”和“确保领先”,他们认为美军现在需要的是没有任何限制的算法支持,所谓算法“护栏”,只会拖美军的后腿。
科技伦理、技术底线,正在一笔笔数百亿美元的“魔鬼交易”之中,被彻底突破。
现在最大的问题是,人类还没有真正掌握AI的算法机制,也并没有真正控制AI的“终极开关”,却已经把它迫不及待地用于能毁灭地球的武器之上。
以后决定是否开启大规模杀伤性武器的,不再是一个官员,而是冷酷的算法。这场根本无法预知军备竞赛已经开启、无法回头。
再加上人形机器人士兵的应用,未来的战争,很有可能是“机器指挥机器”,而人类将会变得空前脆弱。