中美差距到底有多大? 梁文锋毫不避讳、一针见血地回答:“表面上中国AI与美国可能仅有一两年的技术代差,但真实的差距是原创和模仿之差。如果这个差距不改变,中国永远只能是追随者,所以有些探索是逃不掉的。” 真实的差距就是梁文锋说的,原创和模仿的鸿沟。这可不是小打小闹的技术差异,是从根上就不一样。美国那边是从0到1搞发明,咱们好多时候是在别人的底子上从1到10做改进。 人家是出题的,咱们是答题的,答题再快再准,也抢不了出题人的话语权。你看那些最核心的技术底子,比如大模型的底层算法架构,还有能撑起AI运算的高端芯片,基本都是美国先搞出来的。 咱们不少企业做AI,都是拿人家开源的框架改一改、调一调参数,换个场景用,看着热闹,其实核心的东西没攥在自己手里。 这差距背后是实实在在的投入和积累的差距。美国一年砸在AI上的私人投资就有一千多亿美元,是咱们的12倍还多。 这些钱大多投在了没人知道能不能成的基础研究上,人家敢花十几年磨一个算法、养一批顶尖人才。 咱们呢?前些年“百模大战”看着热闹,搞出一百多个模型,可到2024年就剩六十来个了,不少都是跟风凑热闹,没真正往底层钻。 不是说咱们的企业不想搞原创,是原创这事儿太烧钱、太耗时间,短期内见不着回头钱,好多人耐不住这个性子。 更要命的是技术生态的差距。美国那边从芯片到算法再到软件,是一套完整的体系,就像搭好的房子,梁柱门窗都配齐了。 咱们这边更像搭积木,硬件靠进口,软件用别人的框架,好不容易自己造个芯片,性能还差一截,配套的软件插件还不全,跑起来效率比人家低不少。 就说训练大模型最关键的高端芯片,以前咱们90%都得靠英伟达,人家一限制,好多企业立马就慌了神。 后来咱们自己搞芯片,单卡算力比人家差三成,还费电,跑复杂任务的时候效率低得让人着急,这就是生态没跟上的苦头。 人才这块的差距也得认。美国能把全球近六成的AI博士都吸引过去,那些顶尖实验室里全是各国的聪明人,搞起研究来自然快。 咱们高校一年招三万多AI专业学生,论文和专利数量看着比美国多,但论文引用量差远了,好多研究都是跟着别人的方向走,真正能开创新领域的顶尖人才太少。 企业里招个资深算法工程师都得抢破头,更别说能牵头搞底层创新的领军人物了,没人怎么搞原创? 美国还老是搞技术封锁,进一步拉大了这原创的差距。又是限制高端芯片出口,又是把咱们列为受限制国家,连AI模型都不让咱们用,还呼吁搞更强的出口管制。 那公司甚至直接禁止中国控股企业用他们的服务,说怕咱们发展起来。 这明摆着就是想把咱们堵在模仿的圈子里,不让咱们有搞原创的机会。他们自己占着先发优势,还不让别人追,这差距能不难缩小吗? 不过咱们也不是没机会,DeepSeek的出现就让人看到了点希望。梁文锋没走“堆算力”的老路,而是在算法上抠细节,硬是在旧芯片上跑出了高端性能,训练成本还不到GPT-4o的二十分之一。 更关键的是他们搞开源,把技术敞开了给大家用,这一下就带动了不少中小企业搞创新,连上游的芯片厂商都跟着升级产品,慢慢在搭咱们自己的生态。但这只是开始,离真正的原创领跑还差得远。 现在的情况就是,咱们在应用层面跑得挺快,智能支付、工业机器人这些落地场景比谁都多,但根子上的原创能力还是弱。 就像盖房子,装修得再漂亮,地基是别人的,梁柱是别人的,哪天人家抽走一根梁,房子就悬了。 梁文锋说“有些探索逃不掉”,就是这个理儿,不搞原创,永远只能跟在别人屁股后面,人家想卡脖子的时候一卡一个准。 要补上这差距,得沉下心来搞基础研究,不能总盯着短期的应用红利。 企业得舍得把钱投到看不见摸不着的底层技术上,国家也得想办法留住和培养顶尖人才,还得把咱们自己的芯片、算法、软件生态搭起来,别再各自为战浪费资源。 美国的投资是咱们的12倍,人才是全球抢来的,咱们没这条件,就更得抱团使劲,把有限的资源用在刀刃上。 说到底,那一两年代差是假的,原创和模仿的差距才是真的。这差距不是靠抄作业、堆资源能补上的,得靠日复一日的积累,靠敢啃硬骨头的劲头。 DeepSeek的成功说明咱们有搞原创的能力,就是缺时间和耐心。 只要认准了原创这条路不放松,别被短期的热闹迷了眼,总有一天能从追随者变成出题人,到时候才真的没人能卡咱们的脖子了。
