#夜读#【#人工智能改写战场游戏规则#】俄罗斯《侧面》周刊网站3月31日发表题为

参考消息 2025-04-17 01:56:09

#夜读#【#人工智能改写战场游戏规则#】俄罗斯《侧面》周刊网站3月31日发表题为《电子将军:人工智能系统将如何改变未来战争的面貌》的文章,作者是弗拉基米尔·格林克维奇,编译如下:

乌克兰冲突是一种强大的催化剂,加速了人工智能在军队中的应用。能够自主寻找目标并决定是否对其实施打击的自主武器系统已经成为现实。人工智能还可帮助军人处理情报数据,提高电子战武器、防空和反导防御系统的效率。人工智能正在迅速改变战场游戏规则,未来智能作战系统的能力和作用只会不断上升。

专家们认为,快速准确地处理情报信息是目前人工智能在军事上最为重要的应用领域。过去几十年间,随着卫星系统、无线电侦察手段和无人机的发展,军事情报人员通过各种渠道(无线电、光学、红外、声学系统)收集到的信息量呈几何级数增长。大量原始数据的解码和后续分析需要相当大的资源投入。

这就产生了一个悖论:一方面,信息量的增加本应有助于简化最优决策的制定;另一方面,海量的信息往往会让人深陷其中、不知所措。在这种情况下,使用能够读取图像、监听无线电信号、发现并识别潜在目标的人工智能系统无疑成为最佳解决方案。最重要的是,它们处理信息的速度远远超过人类。信息处理得越快,基于这些信息做出决策的速度就越快,而在现代化战争中,速度因素往往具有决定性意义。

人工智能分析系统与卫星侦察系统的结合尤其具有前景。俄罗斯科学院世界经济和国际关系研究所战略分析与预测室主任康斯坦丁·波格丹诺夫表示,人工智能很快就能做到几乎实时地通过卫星影像来识别位于敌方领土纵深区域的军事目标,从而最大限度地缩短从获取图像到发出指示之间的时间延迟。

在不久的将来,人工智能有望学会根据卫星数据来快速发现移动导弹系统。这样的事态发展会破坏战略稳定,因为像“白杨-M”或“亚尔斯”这样的移动式洲际弹道导弹系统是俄罗斯核威慑力量的主要组成部分之一。专家表示,探测此类导弹系统的功能很可能已经被植入目前在轨的一些侦察卫星当中。

人工智能的另一个军事应用领域是指挥机构工作的自动化。具体而言,就是对信息数据进行初步分析,向指挥机构发出提示并提供建议。军事领域有一个术语叫“作战指挥周期”,即具体作战任务的决策和准备执行任务所需的时间。换句话说,就是指从接收信息到下达打击、重新部署、撤退等命令的时间。这个周期取决于许多因素,包括信息的接收速度、信息量的多少以及人脑处理信息的能力。

现代化通信手段显著缩短了作战指挥周期。在第二次世界大战期间,这个周期可能需要一天甚至数天,而如今通常只需要数小时。波格丹诺夫指出,今后作战指挥周期可能需要缩短到数十分钟,甚至数分钟。然而,人的因素成了一个几乎不可逾越的障碍:指挥部要花费大量时间接收信息、理解信息、核实信息、分析信息并进一步处理。指挥部操作员一方面要记住现有兵力和装备情况,另一方面还要记住目标清单,并考虑如何在特定时间内打击这些目标。而机器完全可以承担这些功能,并向操作员发出提示,操作员只需以相应的命令形式对这些提示予以确认或是拒绝。

波格丹诺夫指出,未来还有可能出现可以在对情报信息和其他数据进行分析的基础上,在没有人工干预的情况下自主下达命令的系统。但他也认为,朝这一方向发展的可能性不大。

与此同时,一些专家确信,乌克兰境内的军事行动中已经使用了首批具有人工智能的致命武器系统。这里指的是使用影像识别技术的攻击型无人机,它们可以自动搜索目标、识别目标并决定是否发动攻击。

军事专家、俄罗斯高等经济大学欧洲与国际综合研究中心主任瓦西里·卡申说:“在特别军事行动之前,有很多关于自主致命武器的讨论,有专家建议制定相关规范来限制自主致命武器的研发,但在军事对抗真正发生后,这种武器出现了。”而且人们发现,这种武器系统代表了未来的发展方向。第一人称视角(FPV)无人机的发展趋势就是证明,这种无人机已成为特别军事行动期间的主要打击手段之一。

电子战系统的不断完善促使无人机开发者瞄准两个方向。第一个方向是制造通过光纤控制的无人机。这种解决方案使无人机完全不受电子干扰的影响,但光纤无人机的飞行距离、机动性和飞行速度受到限制;第二个方向是研发具有机器视觉和自动捕捉目标模块的FPV无人机。专家表示,影像识别系统已经在“柳叶刀”等较为复杂的无人机上得到了应用。

此外,人工智能在部分防空和反导系统、电子战以及网络作战中的应用已经成为现实。卡申表示,展望未来,大型中高空和高空无人机、战舰,以及包括坦克在内的装甲车辆都将成为人工智能的载体。

俄罗斯《祖国军火库》杂志主编维克托·穆拉霍夫斯基指出,地面作战机器人系统的自主性将会不断提升。也就是说,战斗人员对作战机器人的干预将会降至最低限度,甚至完全不干预,把一切都交给人工智能。不过迄今为止,即便是技术最发达的国家也还没有制造出完全自主的地面作战机器人。

大多数专家认为,法律问题是制约军用人工智能系统发展的主要因素之一。如果出现决策错误,谁来承担责任?波格丹诺夫说:“比如美国在也门、巴基斯坦、阿富汗使用攻击型无人机的著名案例,出了多少次错?!本应打击恐怖分子目标,结果却误伤了平民。”在这种情况下,表面上责任应由操作人员来承担,但如果是机器自行按下按钮呢?

所有试图从理论上解决这个问题的尝试都不可避免地陷入僵局:批准使用系统的军事人员以不完全了解系统工作算法为由进行辩解。简单来说,就是他们并不完全明白人工智能是如何“思考”的。而系统开发商则回应说,自己没有义务透露商业机密信息,这就陷入了死循环。与此同时,战场上可能会出现作用原理(和能力)尚未完全被使用者理解的武器。

另一个问题是,人们认为机器不会像人类那样行为失控,也就是说不会犯战争罪。然而,西方进行的试验表明,半自主和自主作战系统是可以被蓄意用来实施战争罪行的,比如在特定地区制造恐怖袭击。波格丹诺夫表示,这个问题目前仍然是纯理论问题,但它也应被考虑在内,因为如果军队的机器人化发展到一定程度,这种前景及其后果将无法被忽视。

不过卡申表示,全球军备发展的历史经验表明,只有那些从实际军事角度来看效率并不高的武器才能被限制和禁止,而那些可能在战争或战斗中发挥决定性作用的武器是限制不了的。这种现象可以追溯到基督教会试图禁止基督徒使用弩来对付同教中人的时代。由于人工智能武器系统不仅高效,而且能够改变作战行动的范式,因此很难相信阻止其应用的尝试会取得成功。

以航空领域为例:到目前为止,造价高达数亿美元的大型作战飞机仍然占据主导地位。这些飞机之所以庞大且昂贵,是因为它们需要由飞行员来驾驶,而飞机的任务之一就是要确保飞行员的安全。毕竟培养一名飞行员也需要花费巨资,而且他们具有“稀缺性”。

卡申解释道:“当你拥有的是由人工智能来操控的武器平台时,你只需计算会损失多少装备,以及敌人摧毁它们需要花费多少资源,并据此来对特定装备的研发提出需求。你在心理上会比较容易承受这些装备的损失。”而且许多武器装备中最昂贵的部分不是“硬件”,而是“大脑”,也就是为其开发的软件。而软件与实物不同,它可以被无限复制。因此,你可以生产出大量相对廉价的作战系统,并且毫不吝惜地使用它们。你的期望是敌人摧毁这些系统需要耗费更多的资源,因此最终会输掉战争。

很难说上述预言是否会成真。但如果它成为现实,那么未来的战争就有望比今天的战争更加人道。(编译/赵志鹏)

0 阅读:9
参考消息

参考消息

《参考消息》创刊于1931年,是中国发行量最大的日报。