金一南曾语出惊人,他说:“未来,对人类威胁最大的、最可怕的不是 核武器 ,而是AI技术!人工智能进入战场,将带来毁灭性......”对此, 曾仕强 生前早有“告诫”,一针见血:“人应该有所畏惧,不能为了自己的需求,放纵自己,为所欲为。”
这段话如果只听表面,很容易被理解成“AI会不会反过来控制人类”。我认为更现实的危险不是机器突然有了野心,而是战争被AI改造成一种低成本工具。核武器太重、太贵、太显眼,AI武器却可以拆成算法、无人机、识别系统、网络工具,悄悄塞进每一场局部冲突里,这才是真正麻烦的变化。
1988年7月3日,美军“文森斯”号击落伊朗航空655航班,与今天AI军事化高度相似。那不是AI战争,却已经暴露出技术系统加战场紧张会怎样放大误判;当时客机被错误识别为战机,290人全部遇难。差别在于,当年的错误还要经过人和雷达系统,如今AI可能把这个过程压缩到秒级,这意味着误判会跑得比政治刹车更快。
所以金一南这句话真正有分量的地方,不是把AI说得比核弹更玄,而是提醒人们:未来最危险的按钮,未必在总统办公室,也可能在一套自动化流程里。人以为自己只是批准系统建议,实际上已经被系统推着走,这种“看似有人、实则被算法牵引”的战争形态,会让责任变得模糊。
美国正在把这条路走得更快。2026年5月5日,微软、谷歌和xAI同意让美国政府提前接触新AI模型,理由是做国家安全测试;路透社还提到,华盛顿担心AI可被用于网络攻击和军事滥用。这个动作表面是安全审查,实质是把商业AI提前纳入国家安全体系,美国不会放过任何可军事化的技术入口。
更值得警惕的是,美国军方不满足于把AI用在办公室,而是在追求“少数人指挥更多机器人”。2026年5月4日,Defense One报道,DARPA新项目瞄准机器人自主组队和任务执行,目的就是解决无人装备太依赖人工的问题。这里的方向很清楚:不是让机器替人省力,而是让机器成群作战。
这也是AI比传统武器更难管的地方。导弹发射后还能追踪来源,航母编队一出动就会被盯住,可AI系统可以隐藏在供应链、云平台、模型接口和无人装备里。美国一旦把商业公司、政府实验室和军方网络打通,未来的军事竞争就会从“谁的武器更多”,变成“谁的数据更全、模型更快、部署更便宜”。
中国当然不能装作看不见。Defense News在2026年4月7日报道,中国海军“钦州”舰强化AI算法用于防空盲区补强,还提到中国机构进行过1名士兵监督约200架自主无人机的测试。西方媒体一边渲染中国能力,一边又承认美国仍有军事AI优势,这种说法本身就说明,AI战场正在成为新一轮话语战。
台湾地区也已经被卷进这套逻辑。2026年5月9日,路透社报道,台湾地区补充防务预算只通过约三分之二,部分岛内无人机和导弹项目被排除,台当局防务部门称可能造成能力缺口。美国最急的不是台湾地区“安全”,而是它设计的非对称消耗体系能不能按时拼好,这才是外部势力的真实盘算。
从中国视角判断,AI军事化在台海方向的危险,不是岛内几架无人机本身,而是外部势力想把台湾地区变成算法战、无人战、认知战的试验场。若无人艇、廉价无人机、AI情报系统和外部卫星链路拼起来,冲突门槛就会被人为压低,岛内民众反而会被推到更危险的位置。
这就解释了为什么中国既要发展AI,也要反对AI霸权。2026年3月26日,中国外交部说,中国核心AI产业规模超过1.2万亿元、AI企业超过6200家,并提出建设世界人工智能合作组织和“AI+国际合作倡议”。这不是简单秀产业数字,而是在告诉世界:AI不能由少数国家垄断,更不能由美国军工体系私有化。
美方对中国AI发展的打压也越来越露骨。2026年4月24日,针对白宫所谓“中国大规模窃取美国AI知识产权”的指控,中国外交部明确反驳,称其毫无根据,是对中国AI产业发展的蓄意攻击。美国一边要求自己的科技公司服务国家安全,一边污名化中国正常发展,这种双重标准已经非常清楚。
2026年5月7日,路透社又报道称,美中正在考虑启动AI正式讨论,并可能把AI放入北京峰会议程。这个信号很重要:美国知道AI竞争继续狂飙会有风险,但它想谈的不是平等治理,而是怎样在保持优势的前提下给别人划线。中国参加对话可以,但绝不能接受别人用“安全”名义锁死中国发展空间。
未来一段时间,AI军事化大概率会沿着三条线推进:一是无人装备继续白菜化,二是商业大模型继续被军方吸纳,三是美国把所谓规则包装成阵营门槛。中国要做的不是跟着美国节奏慌乱起舞,而是把技术底盘、产业链安全和国际规则倡议同时推上去。
