DeepSeek创始人梁文峰再次语出惊人!他说:“我们经常说中国AI和美国有一两年差距,但真实的差距是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的。” 这话一下子戳破了行业里的 “数字幻觉”。太多人盯着参数表算差距,却没看清中美 AI 早已走在两条截然不同的路上。 1956 年达特茅斯会议上,“人工智能” 概念刚被提出时,中美确实站在同一块起跑线。那时没有成熟的模型架构,没有海量数据的包袱,双方都靠着理论探索往前摸。谁也想不到,六十多年后,美国靠 “生态闭环” 建起了高墙,中国还在 “应用突围” 中找方向。 美国的领先从来不是某一个模型的胜利,而是整个产业链的集体发力。2025 年,亚马逊、谷歌这些巨头一口气砸了 2150 亿美元在 AI 上,不是单纯堆算力,而是建 “基础设施 — 模型 — 应用” 的全链条霸权。 亚马逊自己造 Trainium 芯片,第二代比上一代训练速度快 4 倍,还搭了 Bedrock 平台整合上千个模型,把 5 亿台 Echo 设备变成 AI 入口,从云服务到电商购物全串了起来。 英伟达更是把这种霸权做到了极致。刚发布的 Blackwell Ultra GPU,推理性能比上一代翻了 40 倍,288GB 的大内存能轻松扛住多模态数据洪流。 更狠的是它的 CUDA 生态,15 年攒下 400 万开发者、5.6 万开源项目,就像一张无形的网,让别的芯片就算性能跟上了,也难兼容主流模型。2024 年中国 AI 芯片市场,英伟达一家就占了 83.2%,几乎垄断了赛场。 中国这边的景象完全是另一番模样。“百模大战” 闹得热闹,备案的大模型有 302 个,但大多还在别人画好的圈子里打转。 阿里的通义 Qwen3—Max 数学推理能拿满分,DeepSeek 的 V3.2-Exp 把 API 成本砍了一半,这些都是实打实的进步,可终究是在 Transformer 架构上做优化,没跳出既有框架。 最扎心的是专利质量的落差。中国 AI 专利申请量是美国的 4 倍,可拿到海外认可的只有 4%,美国却有 32%。这就像考试时抄作业能拿高分,可真要自己出题就慌了神,恰好应了梁文峰说的 “原创与模仿之差”。 但中国也在悄悄憋大招,走了条 “非对称创新” 的路。DeepSeek 去年发布的 R1 模型,用不足美国同行 1/20 的成本,训练出性能比肩 GPT-4o 的开源模型,直接让英伟达市值一天蒸发 6000 亿美元。 他们没硬拼算力,反而靠无监督学习把人工标注数据的依赖降了 90%,在性能受限的芯片上玩出了新花样。 中科院的团队更绝,直接把 AI 种进了地里。他们搞出的智能育种机器人 “吉儿”,能给大豆自动杂交授粉,还先用基因编辑改作物花型,让机器人更好下手。 这种 “BT+AI + 机器人” 的组合拳,一下打破了大豆杂交育种的瓶颈,把人工成本砍了大半,在农业这个垂直领域跑出了美国没跟上的速度。 张亚勤说现在中美差距缩短到两个月,这话没毛病,但得看怎么算。美国在芯片、生态这些顶层设计上占着先,中国却在应用落地里找机会。 美国云巨头靠高溢价的 PaaS 服务赚得盆满钵满,利润率能到 40% 以上;中国运营商云虽然增速快,却还在靠硬件销售薄利多销,毛利刚过 15%。 可换个角度看,3 万多家智能工厂靠 AI 把研发周期缩短 28.4%,百度自动驾驶的载客量远超 Waymo,这些落地场景攒下的海量数据,说不定就是未来原创突破的底气。 就像 Transformer 架构是从优化 NLP 效率来的,中国这么多产业的数据洪流,未必不能泡出颠覆现有框架的新东西。 梁文峰说 “有些探索逃不掉”,其实是点透了关键。美国用芯片和生态定了游戏规则,中国不能总在别人的规则里玩。DeepSeek 的开源战略、中科院的育种创新,都是在找自己的玩法。 这场较量从来不是参数的比拼,而是敢不敢走无人区的勇气。美国靠原创定义了 AI 的过去,中国能不能靠 “应用反推创新” 改写未来,答案或许就藏在那些看似 “非主流” 的探索里 , 毕竟追随者只能跟跑,开创者才能定方向。 信息来源: 梁文峰:“我们经常说中国AI和美国有一两年差距,但真实的差距是原创和模仿之差。如果这个不改变,中国永远只能是追随者,所以有些探索也是逃不掉的!” 海峡导报2025-09-05 08:36福建
DeepSeek创始人梁文峰再次语出惊人!他说:“我们经常说中国AI和美国有一两
古今知夏
2025-10-15 06:50:57
0
阅读:371
loach
中国人只研究彩礼,催婚,就可以了。