金一南将军再次语出惊人,他说:“未来,对人类威胁最大、最可怕的,不是核武器,而是

运赛过去 2025-08-21 16:21:46

金一南将军再次语出惊人,他说:“未来,对人类威胁最大、最可怕的,不是核武器,而是AI技术!美军早将AI视作“颠覆战局”的核心技术,人工智能若进入战场,将带来毁灭性打击......”振聋发聩! 为什么金一南会说AI比核武器还可怕?这得从他那次安全大会上的讲话说起。他直言人工智能已经渗入日常生活,但隐患超乎想象。比如,假的领导人讲话视频在网上流传,能搅乱一个国家的局势;金融市场里,自动化交易系统一眨眼就能蒸发上万亿资金;甚至恐怖组织用廉价技术就能组装复杂武器。这些事儿听起来像科幻,但其实天天在发生,让人觉得后背凉飕飕的。 管控AI可不是说说而已,欧美有法规,但技术更新太快,制度追不上。很多公司知道自家技术可能被滥用,却没几个真正设道德把关。长此以往,出大乱子是迟早的事。更棘手的是,AI的边界越来越模糊,没提前立规矩,未来肯定乱套。这些隐患还只是冰山一角,各国正砸重金把AI用到军事上。美国、以色列、俄罗斯早就布局,用AI筛卫星图像、指挥防空、操控机器人上阵。全球几十个国家在搞军事智能化,去年投入超180亿美元。 金一南特别指出战场AI的三大痛点:速度快得人类反应不过来,决策容易脱轨,系统还可能错把无害目标当威胁。最要命的是,技术门槛低,几万块钱就能造出致命武器,战争不再是大国专属。相比核武器有国际监管,AI是大家各自闭门造车,失控风险大得多。他的话像警钟,敲醒了不少人。 但AI也有好的一面,比如帮医生诊断病症、分析气候数据,提高效率。问题是怎么平衡,让它帮人而不是害人。专家建议,像管药品一样严格监管,公司备案关键技术,有人盯着。责任要明确,道德放首位,还能设认证,表彰负责任的企业。安全投入得跟上,别等出事再补救。 各国没停下脚步,继续加大AI军事投入。美国推进决策辅助系统,以色列整合到一线作战,俄罗斯开发自动化指挥平台。投资规模年年涨,预计到2035年,全球国防AI市场翻倍。专家们提出措施,对技术审核像药品那么严,企业登记项目,专人监督。重点是明确责任、优先道德,通过认证认可靠谱开发者。安全资源增加,避免匆忙推产品。 金一南的观点引发讨论,推动更多会议探讨创新与控制的平衡。他继续在国防大学教书,出版新书,参与战略咨询,到现在还活跃在安全领域,持续发声。想想看,如果AI真进入战场,我们的日常生活会受多大影响?核武器有威慑,但AI的渗透更隐蔽、更广泛。美军早就把AI当核心,视作颠覆战局的利器,这不光是技术竞赛,还是战略博弈。 俄罗斯和以色列也跟上,全球格局在变。专家担心AI与核武器结合,会增加误判风险,比如系统偏见导致错误打击。国际红十字委员会就指出,AI武器存在严重偏见问题,容易放大歧视。SIPRI年鉴提到,2023年多场国际会议讨论军事AI,焦点是伦理和控制。中国在AI军事应用上也重视,但强调智能化战争的制胜关键。

0 阅读:0
运赛过去

运赛过去

感谢大家的关注