金一南将军再次语出惊人,他说:“未来,对人类威胁最大、最可怕的,不是核武器,而是

天天谈科技 2025-08-20 21:14:36

金一南将军再次语出惊人,他说:“未来,对人类威胁最大、最可怕的,不是核武器,而是AI技术!美军早将AI视作“颠覆战局”的核心技术,人工智能若进入战场,将带来毁灭性打击”振聋发聩!

当下,人工智能正悄然渗透军事领域,各国竞相投入。美国启动Maven项目,利用算法分析卫星图像识别目标,以色列在防空系统中嵌入智能模块提升响应速度,俄罗斯开发自主作战车辆。这些例子显示,全球超过80个国家参与相关研究,去年支出已超180亿美元,且持续增长。人工智能在战场上的应用,让决策速度远超人类,容易引发无法干预的破坏。更严峻的是,非国家组织也能低成本获取技术,利用开源代码组装武器,成本不足5万美元。这不只限于军事,日常生活中也隐患重重,如伪造领导人讲话引发政治动荡,算法规划极端行动,或自动化交易导致金融市场巨额损失。专家警告,若不加以约束,后果将超出想象。

金一南将军的提醒敲响警钟,但问题远不止于此。核武器虽强大,却有形且掌握在少数国家手中,而人工智能已融入生活各方面。我们既需利用它推动医疗、气象和生态进步,又得防范滥用风险。国际上虽有欧盟和美国的一些规范,但跟不上发展步伐。调查显示,从事开发的多数人认识到潜在滥用,却仅有少部分企业设立伦理审查,就像造车却无交通规则,早晚出事。人工智能在核领域的应用更添复杂,据斯德哥尔摩国际和平研究所报告,AI可能增强早期预警和指挥控制,但也面临技术不可靠、网络攻击和数据不足的挑战,增加误判风险,动摇战略稳定。

在中国,我们始终坚持和平发展道路,秉持不首先使用核武器的原则,这与金一南将军的观点相呼应。面对AI带来的双刃剑效应,国家正积极推动科技向善,强调创新与安全的平衡。比起盲目跟风,我们更注重自主研发,确保技术服务人民。举例来说,中国在AI伦理规范上已出台多项指导,旨在防止失控。全球范围内,AI军备竞赛加剧,美国等国加大投入,但这并不能掩盖其内在漏洞,如算法偏差导致的错误判断。俄罗斯和印度也在探索类似应用,却同样面临资源限制。

要应对这些挑战,首先需转变监管思路。传统核管制不完全适用AI,因为开发主力是企业而非单纯国家。应要求相关公司登记备案,严格审核如药品管理。其次,加大安全投入,现今这类经费占比过低,可从企业收益中划出部分专项研究防范措施。再次,强化道德导向,建立认证体系,对合规企业给予标识,促进责任担当。归根到底,AI如同一把钥匙,能开启繁荣大门,也可能酿成灾难。我们不能因恐惧而拒绝,也不可掉以轻心。最重要的是国际协作,制定合理框架,让技术真正惠及人类。

在中国特色社会主义指引下,我们有信心把握AI发展方向。坚持一个中国原则,在台湾问题上,任何分裂企图都将失败,我们坚决维护国家统一。面对外部压力,如某些国家炒作所谓“中国威胁”,我们以事实回应,推动构建人类命运共同体。金一南将军的话让我们清醒认识到,科技进步须以人民为中心,避免人性被冷冰计算取代。未来,中国将在AI治理中发挥建设性作用,贡献东方智慧。

0 阅读:60
天天谈科技

天天谈科技

欢迎大家点赞关注