ElonMusk和美国AI播客博主DwarkeshPatel、Str

映梦说汽车啊 2026-02-05 15:07:27

Elon Musk 和美国 AI 播客博主 Dwarkesh Patel、Stripe 联创 John Collison 录了一期播客,这期播客目前只放出来一小段预告片,但某种程度上算是解释了 SpaceX 收购 xAI 的底层逻辑。简单整理下。

「在地球上扩展算力比在太空中扩展更难。任何一块太阳能电池板在太空中的发电量大约是地面的五倍。所以,实际上太空部署要便宜得多。

我预测,在 36 个月或更短的时间内,太空将成为部署 AI 最经济的选择。也许只需 30 个月。

用不了 36 个月。我可以肯定。36 个月,或许更接近 30 个月后,太空将成为 AI 最具经济吸引力的应用场所。届时,AI 性能将得到极大的提升。一旦你开始思考我们利用了太阳能量的多少,你就会意识到太空的潜力巨大,而地球上的规模却难以企及。

目前,整个美国平均每年只消耗 0.5 太瓦的电力。所以,如果我们说部署 1 太瓦,那将是美国目前用电量的两倍。这可不是个小数目。你能想象建造那么多超算中心吗?我是说,那么多发电厂?

那些一直待在软件世界里的人,还没意识到他们即将迎来硬件领域的一个苦涩的教训,那就是建造发电厂其实非常困难。而且,你需要的不仅仅是发电厂本身,还需要所有的电气设备、变压器……你有没有尝试过与电力公司签订大规模的并网协议,涉及大量电力的那种?

当然,你还可以自己建造发电厂,我们在 xAI 就是这么做的。

但很难扩展。其他能源形式可以扩展,比如太阳能。太阳能电池已经非常便宜了。我记得中国的太阳能电池大概每瓦 25 - 30 美分左右。便宜得离谱。如果把它放到太空,成本会降低五倍。实际上,不是五倍,是十倍,因为不需要电池。

所以,一旦送上太空的资源的成本降下来,太空无疑是生成 token 最便宜、最具扩展性的方式。这一点毋庸置疑。它的可扩展性将比其他方式高出一个数量级。

我预测,从现在开始五年后,我们在太空发射和运行的 AI 数量将超过地球上 AI 的累计总量。

我认为到今年年底,芯片产能可能会超过芯片的装机能力(指通上电运行起来)。届时芯片将会堆积如山,却无法被激活。

对于太空 GPU 和芯片来说,我想你需要它们具备更强的抗辐射能力,并且能够在更高的温度下运行。粗略地说,如果工作温度(以开尔文为单位)提高 20%,散热器的质量就可以减半。更高的运行温度在太空环境中是有益的。你可以采取多种措施来屏蔽内存,但神经网络对比特翻转的鲁棒性很强。辐射造成的大部分影响都是随机的比特翻转。

如果你有一个数万亿个参数的模型,即使出现几个比特翻转,也无关紧要。」

0 阅读:0
映梦说汽车啊

映梦说汽车啊

感谢大家的关注