目前所有大模型其实都遇到了大问题,几乎到了瓶颈。 刚才在X上看了陶哲轩的一个采访,以防万一,提一句谁是陶哲轩,他是国际著名数学家,31岁拿了菲尔兹奖,简单理解,就是数学界的诺贝尔奖,时年31岁,妥妥的天才。 为什么想聊下这个采访呢,因为在这里面他提到了关于人工智能的困局,和我的感受很契合,当然我肯定到不了人家的理解高度,就是感同身受吧。 现在所有给予transform架构的大模型发展到了一个瓶颈期,究其原因就是“计算黑盒”,其实这个话题我原来写过,就是虽然大模型越来越智能,但是即使是国际最顶尖的团队,他们也不知道大模型具体是如何变得有智能的,只知道给足够的计算资源,足够的语料,大模型就能产生“智能”。 陶哲轩就谈到了这一点,现在计算资源和人类知识几乎被喂养完毕了,更多的计算资源投入产生的效果微乎其微,并且这个肯定不是长久之计,究其根本,就是人类根本不知道现在的大模型是如何产生的智能,这一点,需要数学家去解决。 其实,这两天新发的几个大模型,都验证了这些言论,大模型的发展遇到了,前所未有的麻烦。 我附上陶哲轩先生的采访原文,有兴趣可以看下: 天才数学家陶哲轩对数学AI的思考 像真的,但其实不对。 AI写出的证明,乍看完美无瑕,细看漏洞百出。 为什么? 因为它没有“嗅觉”。 今天的AI,已经完全能通过“目测测试” 生成的内容看起来专业、太对味了。 但一旦你靠近它、认真嗅一下,就会发现它撒了香水 掩盖的,是逻辑上的腐臭。 不像传统的初学者那种“明显错”, AI的问题常常隐藏在最高级别的伪装底下: 写得太好,看不出哪里坏。 就像Terry Tao说的:“数学,是有味道的。” 一个真正靠谱的证明,不只是形式正确,而是通体带着那种“对的直觉” 结构自然、推理顺畅、细节干净利落。就像人闻食物的味道,不需要吃一口,就知道有没有毒。 AI没有这个。 它可以模仿口感,复制包装,但闻不到底层的真实。因为它是在学“怎么看起来像对的”,而不是“为什么它是真的”。 你可以把它理解为一个训练过非常精良的演员,知道什么时候该皱眉、什么时候叹气,用上最漂亮的定理、最熟练的转折,但它不明白它的角色到底在干什么。 而这,正是问题所在。 人类在判断一个复杂证明时,靠的不止是推理,更靠一种经验直觉:这个步骤自然吗?这个拆解方式靠谱不靠谱?这个结构合理不合理?我们甚至很难说清楚“为什么不行”,但就是知道,“不对劲”。 这就是“数学的嗅觉” 你说不明白,但你能闻得出来。 AlphaGo和AlphaZero之所以能搞定围棋和国际象棋,不是因为它们穷举了所有下法,而是因为它们学会了在哪些局面里,有“胜利的味道”。 即便讲不出理由,它们凭那股味道,也能找到通向胜利的路。 数学AI要想达到人类水平,它得也有这种“方向感”。 不是生成个像样的证明,而是能问自己:“我是不是在一个貌似正确,实际上死路的方向上走太远了?” 也许未来某一天,它能真正感觉到:“这一步味道不对,我得退回来。” 那一天,它就不只是一个生成文本的工具,而是真正的数学伙伴了。
目前所有大模型其实都遇到了大问题,几乎到了瓶颈。 刚才在X上看了陶哲轩的一个采访
陌上柳絮轻
2025-08-08 01:26:24
0
阅读:0