deepseek在1月最新的论文中提出了MoE + Engram融合,将模型能力拆分为动态计算的MoE和静态记忆的Engram两个独立且互补的双稀疏架构,实现了计算和记忆的双轨分离。这个架构机制不仅仅可以极大提升训练的效率,更重大的意义还在于极大减轻了端侧推理的算力和显存需求,因为多数知识根本不需要推理计算、只需要检索,这对自动驾驶行业显然也具有革命性的重大意义,特别是对车端来说,所带来的不仅仅是性能提升、更是成本革命!一些企业精心布局、研发、采购、装车的1000tops以上的算力芯片,也许会因为技术路线的锁定而在相当长一段时间内面临尴尬的境地,MoE + Engram融合的架构之下,可能用200tops的算力就可以超越原先2000tops算力才能达成的效果。我不清楚现有的各种智能驾驶的算力硬件方案,切换到这个MoE + Engram架构的难度,因为这涉及到软硬件底层的协同优化。也许接下去,能快速切换到MoE + Engram架构的厂商,可能将因成本红利和性能提升红利而将其它对手甩在身后。写着写着,突然想到一点:华为的昇腾应该是一直在跟deepseek做适配.....所以......好象..........嗯哼?!新能源汽车 智能辅助驾驶 自动驾驶 deepseek 华为乾崑智驾
