英伟达要遭老罪了 简单来说,直接用大内存+多块SSD就可以跑671B(全尺寸)deepseek R1模型,根本不用GPU,这要是确实可行,LLM直接变成小算力+大存储模式,这甚至能塞进笔记本里面,谁还需要买老黄的GPU,英伟达腰斩指日可待。直觉上这确实更接近人脑的模型。

英伟达要遭老罪了 简单来说,直接用大内存+多块SSD就可以跑671B(全尺寸)deepseek R1模型,根本不用GPU,这要是确实可行,LLM直接变成小算力+大存储模式,这甚至能塞进笔记本里面,谁还需要买老黄的GPU,英伟达腰斩指日可待。直觉上这确实更接近人脑的模型。

评论列表
作者最新文章
热门分类
国际TOP
国际最新文章
菲菲
据说要20个4090才能跑[晕]