国防部发言人警告:AI军事化或引发《终结者》式危机,中方倡导多边规制

欣欣南宫钦 2026-03-14 23:51:03

中国国防部新闻发言人蒋斌大校严正指出:不加限制地推进人工智能军事化,让人工智能过度影响战争决策,让算法掌控人的生杀大权,不仅侵蚀战争的伦理与责任约束,还可能导致技术失控,甚至使美国电影《终结者》里的灾难场景成为现实。 2026年3月11日国防部例行记者会上,蒋斌大校针对记者提问做出回应。提问内容涉及美国国防部要求科技企业向军方开放人工智能技术,美军在委内瑞拉行动和对伊朗打击中大量使用AI系统,引发国际上对伦理和控制问题的担忧。蒋斌直言不讳指出,如果不设限制地把人工智能推向军事领域,让它深度介入作战判断,甚至把决定生死的权力交给算法,这种做法会严重破坏战争的道德底线和责任归属。战争本来就该由人来承担最终责任,一旦算法说了算,伦理约束就容易被架空,责任也变得模糊。更麻烦的是,技术本身有失控风险,一旦超出人类掌控,后果很难预料。他直接拿美国电影《终结者》举例,说里面机器反过来消灭人类的剧情,虽然是科幻,但如果军事人工智能发展没有底线,这种灾难场景真有可能变成现实。 他同时明确中方立场:人工智能在军事上可以用,但必须坚持人类主导,人在回路中把关。反对某些国家靠技术优势搞单边军事扩张,损害别国主权和领土完整。中方主张在联合国等多边平台上谈规则,大家一起商量怎么防风险、促发展,让这项技术真正服务人类安全,而不是变成新威胁。这番表态把中方对AI军事化的态度讲得很清楚:支持负责任使用,反对无底线竞赛。 发布会后,这段发言很快在国防部官网和微信公众号“国防部发布”上挂出。多家媒体迅速转载,国内外报道都抓住他提到《终结者》那段,讨论焦点集中在技术失控的可能性上。一些国际智库和媒体分析认为,中方这次表态是针对当前美军AI武器化加速的直接回应。联合国安理会和裁军审议会相关议题里,人工智能军事应用的风险管控讨论明显升温,各国代表开始更多引用人类主导和多边规则的概念。中国在后续国际场合继续推动类似观点,强调不能让技术差距变成霸权工具。 国内舆论也借此机会展开讨论,大家普遍认同技术发展要讲底线,不能为了领先就什么都往战场上扔。中方立场的核心逻辑是:技术再先进,也得服务和平,不能反过来威胁人类自身。这条线贯穿始终,也让蒋斌的表态在国际上被反复引用。

0 阅读:29
欣欣南宫钦

欣欣南宫钦

感谢大家的关注