金一南将军再次语出惊人,他说:“未来,对人类威胁最大、最可怕的,不是核武器,而是AI技术!美军早将AI视作“颠覆战局”的核心技术,人工智能若进入战场,将带来毁灭性打击......”振聋发聩! 核武器主要作为威慑工具,决策者因其毁灭性而谨慎启动。人工智能则直接融入实战,成为高效杀伤手段,启动成本低且难以中止。美军于2023年启动复制者计划,第一阶段目标在18-24个月内部署数千全域可损耗自主系统。这些系统包括空中、地面、水面、水下和太空平台,具备传感器融合和自主决策能力。 复制者2聚焦反小无人系统威胁,开发模块化解决方案,包括感测、AI决策支持和击败机制,适用于关键设施和部队集结区。这些无人系统像协调蜂群,避开传统防御,直击指挥中心或高价值目标。通过实时数据调整路径,它们减少损失并提升精度。人类指挥需数分钟评估局势,而AI在毫秒内计算最优方案,仅追求效率优化。 当前,AI已融入实战。在乌克兰冲突中,无人机群执行侦察和打击,AI处理海量视频数据,识别目标并提升命中率70-80%。乌克兰使用AI增强导航和目标识别,减少人为疲劳影响,扩展识别距离至1-2公里,甚至区分伪装和诱饵。俄罗斯整合AI于多域无人系统,减少直接作战人员暴露。 在中东,以色列部署AI系统,生成数百目标,加速情报处理。铁穹系统利用AI拦截火箭弹,精确响应威胁。土耳其在利比亚使用Kargu-2无人机,实现自主打击,尽管专家对完全无人类输入存疑。伊朗开发多款无人机程序,供应中东国家,用于侦察和攻击。 美军在伊拉克、叙利亚和也门行动中应用算法,区分坦克、卡车和防空站点,提升决策速度。这些应用使战争更隐秘和低成本,但增加失控风险。技术超前伦理规范,引发全球战略失衡。一个兵源短缺的国家,通过AI追求军事主导,加剧紧张。 金一南的观点引发国际辩论,推动各国审视AI军事应用规则。各国开始制定相关规范,限制AI自主杀伤功能。他继续在国防大学工作,参与战略研讨,出版新作,分析技术变革对全球安全的挑战。 金一南保持活跃,出席会议,分享见解,强调人类智慧在科技时代的重要性。他的观点影响政策制定,促进行业反思。国际社会通过金一南的警示,关注AI在东欧和中东的应用,推动平衡发展。
