全球的科技大厂们貌似都在计划打造百万GPU级别的数据中心,堆积那么多的算力芯片,都想通过堆积算力芯片来推动AI大模型的迭代与进化,从而赢得这场AI军备竞赛。然而,这种依靠“堆积算力芯片”的发展模式正在逐步被证伪…
微软有75万-90万块等效H100,明年预计达到250万-310万;
谷歌有100万-150万块等效H100,明年预计达到350万-420万;
Meta有55万-65万块等效H100,明年预计达到190万-250万;
亚马逊有25万-40万块等效H100,明年预计达到130万-160万;
xAI有10万块等效H100,明年预计达到55万-100万;
科技咨询公司Omdia估计,字节与腾讯2024 年各订购了约 23 万块英伟达GPU芯片…