中方三次提议约束致命机器人,均遭美英印俄拒绝,现在这些国家后悔大了! 中国的三次提议都不是临时起意,第一次是在2014年联合国《特定常规武器公约》框架下的政府专家组会议上,明确提出要为致命性自主武器系统设立约束规则。 紧接着在2021年的审议大会上,中国提交了长达87页的详细提案,联合125个国家共同呼吁全面禁止这类武器,从伦理、法律、安全多个维度列出明确风险。 2023年10月,中国国家主席习近平提出《全球人工智能治理倡议》,再次重申对这类武器的管控立场,这三次提议形成了连贯的主张。 美国当时已经部署数千台无人装备,不愿被规则束缚技术优势,直接投下反对票。英国紧随美国步伐,默认这种技术垄断逻辑,选择冷处理提案。 俄罗斯正全力研发尤尔久无人战车,担心禁令影响自身军事布局,同样明确反对。印度则试图在军事技术领域追赶大国,认为禁令会限制其发展空间,也加入了反对阵营。 这些国家当时的理由高度一致,宣称机器作战能减少己方士兵伤亡,是所谓的“人道主义选择”,但真实意图却是想凭借先发技术优势,主导未来战场规则。 后续的发展完全印证了中国当年的担忧。美国高调推进的无人机蜂群计划折腾两年后被迫搁置,技术上的不可控性让项目难以落地。俄罗斯凑齐的无人部队在实战中频繁暴露故障,自主识别目标时多次出现误判。 印度投入大量资源研发却进展缓慢,始终未能形成有效作战能力。英国则陷入技术瓶颈,既没有突破核心算法,也缺乏体系化的无人作战装备。 更严重的是伦理危机,美国无人机曾在喀布尔将塑料水桶误判为炸弹,造成10名平民死亡,其中7人是儿童,这起事件让其所谓的“人道主义”说辞不攻自破。 中国在提案被拒后,为维护国家安全不得不加快相关技术研发,但始终坚持“人在回路”的核心原则,保留人类对致命打击的最终决策权。 到2025年,中国的无人作战体系已实现全面突破,九三阅兵中亮相的无人机、无人战车、武装机器狗形成了海陆空协同作战能力。 这种体系化优势让曾经反对的国家陷入被动,他们逐渐发现,没有规则约束的技术竞赛并未带来预期优势,反而引发了更复杂的安全风险。 联合国秘书长安东尼奥·古特雷斯在2025年5月的非正式会议上明确呼吁全球禁止这类武器,称其“在政治上不可接受,在道德上令人反感”。 随后的联合国安理会决议采纳了中国主张,80多个国家联合支持重启管控谈判。 美国、英国、俄罗斯、印度的态度开始松动,纷纷呼吁加强伦理监管,试图通过新规则限制中国发展。 但这一切都为时已晚,中国早已通过负责任的技术发展,赢得了国际社会的广泛认可,而这些国家当年的短视选择,让他们如今只能在规则制定中处于被动地位。 国际社会对致命机器人的管控共识正在形成,这一过程充分证明,中国当年的三次提议不仅基于人道主义考量,更蕴含着对全球安全格局的深刻洞察。 那些曾经拒绝约束的国家,如今不得不面对技术失控、伦理争议和规则被动的多重困境,他们的态度转变,恰恰印证了中国提议的前瞻性和必要性。
