施密特警告:超智能或6年降临,人类尚未准备好 当世界还在争论AI偏见时,一场更致

兴奋的小猫 2025-07-15 00:30:39

施密特警告:超智能或6年降临,人类尚未准备好 当世界还在争论AI偏见时,一场更致命的危机正在逼近——前谷歌CEO埃里克·施密特在最新播客中发出警报:人工超级智能(ASI)或在未来六年内突破人类控制,而社会对此毫无准备。"我们像在火山口跳舞,却没人检查地壳震动。"他如此形容人类对超智能风险的集体短视。 施密特勾勒出惊悚的时间表: 12个月倒计时:因AI能自我升级代码,大多数程序员岗位年内消失(OpenAI等实验室已有20%代码由AI完成); 3-5年临界点:人工通用智能(AGI)达到人类认知水平; 6年大跃迁:AGI将迅速进化为超越全人类智慧的ASI,引发"旧金山共识"预言的文明级冲击。 超智能的恐怖不在于能力,而在于失控风险:"当机器拥有免费、无限的智慧时,人类的法律与道德框架将瞬间过时。"施密特指出,现有民主制度甚至缺乏描述ASI社会的语言体系——从军事自主决策到经济权力垄断,从隐私消亡到伦理溃堤,全球治理或面临全面崩塌。 危机中亦藏生机:ASI可能破解气候变化、终结疫病,推动科学指数级跃进。但施密特强调,若人类继续沉迷"算法偏见"等表层争议,而非建立全球治理框架,机遇将滑向深渊。他呼吁各国紧急行动: 重构法律:为超智能设定"伦理防火墙"; 教育革命:培养驾驭ASI的新世代; 跨国协同:建立类似核不扩散的ASI管控机制。 "这不是科幻,是文明必修课。"施密特的结语振聋发聩。当硅谷的代码迭代速度远超国会立法周期,人类仅剩一个选择:在超智能觉醒前,为失控的未来预留安全出口。时间,正以机器学习的加速度流逝。

0 阅读:12
兴奋的小猫

兴奋的小猫

关注我,一起来关注娱乐消息吧