当前军事理论面临的双重困境是:传统军事问题尚未完全解决,而智能化技术的引入又带来了全新的、更为复杂的挑战。这不仅是技术层面的问题,更是涉及指挥控制、伦理法律、组织形态和战争哲学的系统性变革。
一、指挥控制体系的结构性重构
传统指挥链中,决策权归属明确;但在人机协同环境下,需要在毫秒级响应与人类最终裁定之间建立动态平衡,进而形成了决策权的动态分配困境,如在防空反导任务中,AI可能需要毫秒级自主决策权,而在核打击等战略决策中,人类必须保留最终控制权。这种"红-黄-绿"三级权限体系的构建,成为指挥控制理论的新课题。
同时,智能化战争将OODA循环从"分钟级"压缩至"秒级"甚至"毫秒级",实现了"预测性作战"。但这种加速也带来了"算法茧房"风险——某联合作战平台曾因过度依赖历史数据模型,未能预判新型混合战争形态而贻误战机。
二、认知与伦理的深层挑战
AI系统的"不可解释性"导致指挥责任困境,当AI决策失误时,难以界定是算法缺陷还是指挥员的监督失职,造成算法黑箱与责任归属问题。这种"技术反向规训"现象——即技术工具异化为决策主体——正在改变传统的军事责任伦理。还有,人类对智能系统的决策过程可能存在不信任感,而人机交互的复杂性又可能导致操作不便。更严峻的是,对手可能通过数据污染、模型欺骗等方式实施"釜底抽薪"式攻击,诱发智能系统误判,更加剧烈了人机信任的脆弱性。
三、作战形态的范式转换
传统线性杀伤链正转向分布式杀伤网,作战样式从"计划主导"变为"动态适应"。这要求建立全新的任务规划模型,但当前模型通用性差、实时性不足,难以适应复杂战场环境。更重要的是,人机融合智能旨在实现"1+1>2"的效果,但面临三大技术瓶颈:①决策多样性受限,机器的假设条件有限,难以应对复杂作战环境;②信息传递效率低,人机间数据共享滞后,难以满足实时性要求;③主控权切换困难,何时由人接管、何时由机器自主,缺乏清晰的切换机制。人机融合智能的边界划分问题将会越来越突出。
四、组织与人才的适应性危机
现代军事教育体系相对滞后,指挥员需要从"直接决策者"转型为"人机协同架构师",但现有军事教育体系缺乏算法博弈论和批判性验证能力的训练。正如医疗领域的现象,未经系统训练的指挥员可能无法辨别AI诊断错误。
现行《日内瓦公约》体系未能预见AI控制的自主武器系统,导致战争规则的适用性危机。自主武器系统的伦理困境、人机责任边界的模糊,以及国际安全的新挑战,都需要建立全新的规范框架。
五、战略层面的系统性风险
过度依赖AI可能导致指挥员丧失对复杂战场逻辑的深层理解能力,同时给对手提供了利用技术依赖性的攻击窗口。这种"制智权"的争夺,使得战争制胜机理从"制信息权"转向更高维度的认知控制。全球40余个国家正在发展自主武器系统,可能引发AI军备竞赛,导致"武力优先于外交"的新世界秩序风险。这种技术扩散的速度远超国际规则制定的速度,形成了危险的"规则真空期"。
总之而言,人机协同带来的新军事问题具有系统性、涌现性和不可逆性的特征。这些问题不是传统军事问题的简单延伸,而是在技术赋能下产生的全新矛盾域,要求军事理论、组织形态、伦理规范和国际法体系进行整体性创新。正如前面所言,在旧问题尚未完全厘清之际,新问题的涌现使得军事变革进入了复杂性叠加的新阶段。