梁文锋又冲上热搜了! 这次既不是团队内讧也不是技术翻车, 反倒给AI圈扔了颗惊雷

广博看社会趣事 2026-01-22 11:23:35

梁文锋又冲上热搜了! 这次既不是团队内讧也不是技术翻车, 反倒给AI圈扔了颗惊雷。而是他们居然又   开发了新的模型!1月21日外媒曝光,梁文锋在DeepSeek发布推理模型R1一周年之际,新模型“MODEL1”的项目名在开源社区悄然出现。 要聊这盘布局,得先说说去年R1模型的底子,这可是MODEL1能稳稳接棒的关键。 2025年2月DeepSeek推出R1的时候,直接刷新了国产开源大模型的天花板,那会儿它凭着性能对标国际顶尖模型、推理成本低廉还完全开源的优势,上线才20天,月活用户就突破了3000万,这数据在当时的AI圈可是独一份的亮眼。 更实在的是,R1不是只靠数据好看圈粉,是真真正正落地到了各行各业,用友、金蝶这些做企业服务的大厂,直接接入R1优化财务、供应链的智能化流程,不用花大价钱买闭源模型授权,改改就能用; 深圳龙岗区的政务外网,干脆部署了R1全尺寸模型,办业务的老百姓能明显感觉到,智能咨询、材料审核的速度快了不少,公共服务的效率直接提了一档。 那会儿梁文锋就说过,要深耕开源赛道,让更多中小企业、科研团队用得起AI技术,一年过去,R1站稳了脚跟,积累了大批用户,这个时候MODEL1现身,就是顺着R1的生态往上走,既承接老用户的期待,也借着周年庆的热度快速出圈 再回头看MODEL1,它可不是R1的简单迭代,从开源社区流出的代码细节能看出,这是一款全新架构的模型。之 前DeepSeek的V3系列模型,核心参数有固定的设计标准,而MODEL1特意调整了关键参数,还新增了大量针对下一代GPU的优化模块,能适配更先进的算力芯片,推理时能实现稀疏和稠密两种解码模式,用更低的显存占用维持高精度计算, 简单说就是,既能省算力成本,又能让长文本推理、复杂逻辑运算更顺畅。 更值得注意的是,在MODEL1现身之前,DeepSeek已经悄悄做了技术铺垫,今年1月以来,先是发布了优化训练方法的论文,又联合北京大学推出了AI记忆模块技术,解决了传统模型知识检索低效的问题,这些技术成果,大概率都会用到MODEL1上,种种迹象串起来,足以证明MODEL1不是临时拍脑袋的产物,是DeepSeek早就规划好的下一代旗舰模型。 可能有人会问,为啥DeepSeek非要把MODEL1先放在开源社区露面,而不是高调开发布会? 这其实就是开源赛道的门道,也是DeepSeek的精明之处。 开源社区里藏着全球最懂技术的开发者和工程师,他们能第一时间发现模型的问题,给出优化建议,相当于先让内行人免费“质检”,比花钱请第三方测试还靠谱; 而且这些开发者一旦认可模型,会自发扩散口碑,衍生出各种定制化应用,慢慢形成生态,这种靠技术实力攒下的人气,比铺天盖地打广告管用得多。 反观那些闭源模型,把技术攥在手里,看似掌握主动权,实则把自己困在了小圈子里,中小企业用不起,开发者碰不到,久而久之就会失去创新活力,这也是为啥现在越来越多的企业,都开始往开源赛道靠拢。 说起梁文锋和DeepSeek,这一年多来确实不容易,之前母公司出过内控风波,外界也有过质疑,甚至还有假冒他的账号在网上发声,搞得大家真假难辨。 但这次MODEL1的现身,算是给所有关注者吃了颗定心丸,梁文锋和他的团队,没被外界的杂音带偏,也没被过往的争议绊住脚,一直沉下心做技术。 要知道现在的AI圈,炒作概念的多,踏实做产品的少;跟风闭源的多,深耕开源的少,很多团队总想靠流量博眼球,靠噱头拿融资,可到最后才发现,AI行业的核心竞争力,从来不是热度,而是实打实的技术,是能落地、能复用、能让更多人受益的产品。 现在的AI圈,正处在开源和闭源博弈的关键阶段,国外大厂靠着先发优势,在闭源赛道占据主导,国产AI要想破局,开源就是最好的突破口。 闭源模型就像去饭店吃饭,人家做啥你吃啥,想吃定制口味就得花大价钱,还得看人家愿不愿意;开源模型则是给你菜谱和食材,你能根据自己的需求调整,成本低,自由度高,中小企业能靠它活下去,科研团队能靠它搞创新,这才是技术普惠的样子。 DeepSeek从R1到MODEL1,一直盯着这个方向,不追求短期的流量,不贪恋一时的利润,就是想在开源赛道扎深根,攒下自己的生态,这份定力,在当下的AI圈格外难得。 当然,现在MODEL1还只是露出了冰山一角,只是项目名现身开源社区,还没正式发布,后续能不能在性能上实现突破,能不能适配更多场景,能不能撑起更完善的生态,还有不少考验。 但不管怎么说,梁文锋这次靠技术上热搜,本身就是一件好事,它证明国产AI团队不用靠争议博关注,不用靠炒作蹭热度,只要沉下心做技术,拿出真本事,就能在国际舞台上有一席之地。

0 阅读:1
广博看社会趣事

广博看社会趣事

感谢大家的关注