众力资讯网

金一南再次语出惊人,他说:“未来,对人类威胁最大的、最可怕的不是 核武器 ,而是

金一南再次语出惊人,他说:“未来,对人类威胁最大的、最可怕的不是 核武器 ,而是AI技术!人工智能进入战场,将带来毁灭性......”对此, 曾仕强 生前早有“告诫”,一针见血:“人应该有所畏惧,不能为了自己的需求,放纵自己,为所欲为。”
1925年的《日内瓦议定书》与本次高度相似,都是在新技术可能把战争变得更便宜、更泛滥、更缺底线的时候,国际社会开始试着补一条红线;但关键差异也摆在眼前,毒气至少是明确物质,谁在生产、谁在使用、谁在运输,还能追踪,AI却是算法、模型、芯片、云平台和无人系统的拼装体,平时能做生意,战时就能接战场,这意味着今天的危险更像渗水,不像爆炸。
也正因为这样,国际组织现在才会这么着急。2026年3月,日内瓦围绕致命性自主武器系统的谈判进入关键阶段,128个国家讨论到9月能不能先达成一份非约束性文本;国际红十字委员会同年1月还在强调,要围绕自主武器建立更清晰的法律约束。问题在于,连“非约束性文本”都还在磨,部署端却已经在跑步,这个时间差本身就是危险。
美国这边的动作,比外交场上的话术实在得多。3月20日,路透披露五角大楼决定把Palantir的Maven纳入正式长期项目,这套系统能吃进卫星、无人机、雷达和情报数据,自动识别潜在目标;美方文件写得很直白,要把AI赋能决策变成战略基石。以前大家以为AI只是帮军官提提速,现在看,它已经开始往作战中枢里坐了。
更值得警惕的,不是某一家公司的技术有多强,而是整条供应链已经接好了。3月17日,OpenAI通过亚马逊云向美国防务和政府机构卖模型,覆盖机密与非机密工作;3月4日,又传出它正考虑把技术送进北约非机密网络。模型公司、云服务商、五角大楼、北约网络开始串成一条线,军事AI已经不是“造一件新武器”,而是在搭一个跨机构、跨联盟的作战底座。
Anthropic和五角大楼的冲突,恰好把这件事说透了。3月,Anthropic因为不肯放开“自主武器”和“大规模监控”两条红线,被五角大楼打上“供应链风险”标签;路透还披露,这场对抗的导火索就是它不愿松动AI护栏。换句话说,美方现在争的根本不是“AI能不能用于战争”,而是“AI能不能少设限制地用于战争”,这才是问题的本质。
如果只盯着美国,还容易把这件事看窄。4月21日,日本大幅修改防务出口规则,军舰、导弹等出口通道被打开;菲律宾公开表示欢迎,美国驻日大使称之为“历史性一步”,德国驻日使节也说这会带来更深层合作。第二天,德国莱茵金属又签下向德军提供大量自主侦察和打击无人机的框架协议。盟友和伙伴一起加码,才是这轮军用AI扩散真正麻烦的地方。
这说明一个新变化:军事AI正在从“超级大国的尖端项目”,变成“盟友体系的共享能力”。美国负责模型、云和作战概念,日本补工业和出口口子,欧洲补无人机和制造产能,地区伙伴再把装备往前沿链条里接。等这套东西跑顺了,战争就会像软件更新一样不断小步快跑,而不是像传统军备那样慢吞吞推进,这才是更长远的威胁。
所以,金一南那句话的锋利处,不在“AI会不会一下子超过核武器的杀伤”,而在AI会不会把战争工业彻底改造掉。核武器靠稀缺材料、国家机器和明确按钮维持高门槛,AI却能借商业模型、商业云、民用芯片和无人平台快速扩散,今天卖给企业的底层能力,明天就可能挂上军方接口。把战争做成产业链,比把战争做成单件武器更可怕,这是我对这句话的第一层判断。
短期内,国际社会大概率不会把军事AI按住不动,最常见的做法会是继续讲“人类在回路中”,可机器先筛选、机器先归类、机器先锁定,人再去点那个看起来保留道德责任的确认键。Maven这种系统被正式纳入长期项目,OpenAI和北约、亚马逊和美国防务机构越绑越紧,都说明这条路不是猜测,而是正在发生的路径。
站在中国视角,最忌讳的不是别人发展AI,而是别人把AI战法做成低成本、快迭代、难归责的消耗体系,然后不断把周边局势往灰色地带里拉。无人蜂群、算法欺骗、真假难辨的信息投送、跨境远程袭扰,这些东西未必一下子造成大战,却会持续抬高地区摩擦频率。对手最想看到的,不是一次决战,而是你被拖进长期高频的疲劳应对。这个算盘必须看穿。
中国的路子,不能跟着对手的节奏乱跑。2025年起,人工智能生成合成内容标识办法已经落地;2026年3月,十部门发布人工智能科技伦理审查与服务办法;4月,拟人化互动服务管理办法又明确提出发展和安全并重、分类分级监管。西方有些力量更想先上车后补票,中国强调的是先把边界立住再加速跑,这不是保守,这是在给大规模应用打地基。