其实虽然我们不是做 LLM 的,但是因为 AI 眼镜要用,所以我们好歹也折腾了有一年了。某些技术趋势,可以先预测一下:1 MoE 是答案。2 专家模型之间的沟通是向量,所以最终,所有模态的向量都会统一(至少在开源世界)。3 专家模型的规模可以更小,能力还会更强。4 最终 MoE 会变成分布式模型。不同模型分布在不同的网址,但是可以统一思考。互联网的开源世界会拥有一个能力极强但是延迟比较高的高度能力的思维模型。5 因此,开源世界会有统一的模型之间的向量沟通标准,做到书同文。6 因此,专家模型的训练会高度专业化。一个专家模型可能就能支持类似今天 Minimax 这种公司活下去。7 因此,虽然今天大家关注电力需求,而网速的需求被忽视了,需要指数级的上升。8 会有一天,模型之间消耗的流量,会超越人类。9 因此,开源模型不可能被闭源打败。10 所以深度思考的 LLM 和要求低延迟的 SLM 会分离。11 端侧 SLM 的数量会爆炸,对应的嵌入式 SLM 芯片需求远远超越今天英伟达供给的显卡。12 这种 SLM 本地芯片的价格,会非常非常便宜(几美金)。13 最终,本地加速算力和云端加速算力会融合。14 LLM 和 Crypto 会合流,用区块链和社区治理机制解决这种技术架构下所有模型的意见分歧,最终解决决策问题。这 14 条简单说就是三个技术方向: 1 The Decentralized AI(去中心化 AI ) 2 The Intelligence on the Edge (边缘智能) 3 Community as MoE, Governance as DAO( DAO 治理下的专家模型社区) 在这种未来下,谈论 Copyright ,甚至任何版权保护都是可笑的。5 年后,命中 60% 算合格,80% 值得庆祝。不及格,我裸奔。ps我不是娱乐财经篮球博主。。。我也是扩招前的一本提前录取计算机专业毕业的服务了多年 500 强企业的互联网业务架构师。模型训练我没有能力训练的更好,但是当模型训练面临瓶颈,要在计算机和互联网工程层面想办法的时候,那我就很熟悉了。当然,也只是一个预测而已,对错与否?Time will tell。
其实虽然我们不是做LLM的,但是因为AI眼镜要用,所以我们好歹也折腾了有
怒喵李楠
2025-12-23 03:15:15
0
阅读:0