
很多人说实话,到目前为止,还不清楚AI产业链,更别提了解浪潮信息在AI产业链中处于什么位置。本文准备对AI产业链上下游进行梳理,进一步明确浪潮信息的角色定位。
一、AI产业链下游
AI产业链的下游就是大家熟知的AI大模型,比如DS、Kimi、豆包、通义千问等。
根据公开资料,OpenAI在新一轮融资中计划筹集400亿美元资金,公司估值有望达到3000亿美元。截至目前,ChatGPT的DAU(日活跃用户数)约为5000万,按照这个逻辑,AI大模型可以按照“6000美元/DAU”估值。
截至2025年1月31日,DS的DAU(日活跃用户数)约为2000万,豆包的DAU(日活跃用户数)约为1700万,按照上述逻辑估值,DS的估值约为1200亿美元。
近期,阿里巴巴股价大涨,市场对阿里巴巴的云智能板块估值抬升1万元港元,换言之,阿里巴巴的通义千问大模型的估值至少也是千亿美元起步。

二、AI产业链中游
AI大模型的训练和提供服务,都需要算力的支撑。
(1)训练需要的算力和成本。OpenAI曾在论文中提出过一个经验公式:C≈6×P×D。其中,C为训练大模型所需的算力,单位是FLOPS(或者浮点运算次数);P是大模型中参数的数量;D是训练数据集的大小,也就是用多少tokens(可以简单理解为几个字)来训练。
坊间传闻,ChatGPT-4大模型中参数的数量约为0.5万亿个,训练数据集包含约14万亿个tokens。
那么,ChatGPT-4大模型需要的算力C≈6×P×D=4.2×1025 FLOPS。
英伟达A100型号的GPU的实际算力约为150 TFLOPS,即1.5×1014 FLOPS,假设OpenAI使用2.5万张A100型号的GPU集群训练ChatGPT-4,那么,这个GPU集群的算力约为3.75×1018 FLOPS。
根据T=C/r(注:C=4.2×1025 FLOPS,r=3.75×1018 FLOPS),我们可以大致计算出训练一次的用时为130天。
英伟达A100的售价约为15万元,搭建2.5万张A100型号的GPU集群的成本约为37.5亿元。假设英伟达A100的寿命为3年,那么,大模型训练1次的设备折旧成本约为4.45亿元;英伟达A100的功率为300瓦,2.5万张A100型号的GPU集群的功率为7500千瓦,130天的用电量为2340万度,按照电价1元/度,电费为0.234亿元,因此,大模型训练一次的总成本约为4.7亿元。
(2)推理需要的算力和成本

大模型的推理成本和日活、月活用户数量(或者说调用次数)成正相关。以浪潮信息NF5688M7型号服务器为例,搭载了8颗英伟达H20的GPU模组,H20的平均推理速度为400字(tokens)/秒,8颗英伟达H20的GPU模组的平均推理速度为3200字(tokens)/秒。
假设用户平均访问大模型的时间为早8点至晚8点,平均每个用户每天调用服务3次,每次输出1000字(tokens);同时,需要考虑AI大模型“联网搜索”的输入量,假设为输出量的10倍,即每次输入10000字(tokens)。如果AI大模型的DAU(日活跃用户数)为2000万,那么,AI大模型每天的推理量为6600亿字(tokens),也就是AI大模型的日平均推理速度约为1528万字(tokens)/秒(计算公式:6600亿/10小时)。
假设用户调用服务遵循“二八定律”,20%的时间有80%的用户访问,剩余80%的时间只有20%的用户访问,那么,集中访问的20%的时间里,AI大模型的平均推理速度大约是日平均速度的4倍,即6111万字(tokens)/秒。
一台浪潮信息NF5688M7型号服务器的速度只有3200字(tokens)/秒,要实现6111万字(tokens)/秒,至少1.9万台NF5688M7型号服务器组成AI服务器集群,初始设备投入约为327亿元。按照服务器使用寿命5年计算,每年的设备折旧费用约为65.4亿元(折8.96亿美元)。
之前估算的训练算力的初始设备投资成本约为37.5亿元,当AI大模型的日活达到2000万的量级后,推理算力成本大约是训练算力的10倍。如果日活再上一个台阶,达到2亿日活,那么,推理算力成本将达到训练算力成本的100倍。

以OpenAI为例,根据《The Information》分析及相关消息,OpenAI公司2024年预计亏损高达50亿美元,其收入约为40亿美元,成本约为90亿美元。总成本中,AI大模型训练成本约为30亿美元,推理成本约为20亿美元。
考虑到ChatGPT的DAU(日活跃用户数)约为5000万,因此,它的推理成本20亿美元,恰好是之前估算的2000万日活的AI大模型年折旧成本(8.96亿美元)的2.5倍左右。
这里我们还可以求出ChatGPT-4大模型的训练频率,年训练成本约为30亿美元(折219亿元),每次大模型的训练成本约为4.7亿元,也就是每年大模型的训练次数应该是46至47次,也就是,训练频率大概是每周一次。
简单来说,AI大模型的训练成本是有天花板的,每年30亿美元的训练成本即使不是天花板,至少也离“天花板”不远了;但是AI大模型的推理成本是没有天花板的,5000万日活就需要每年20亿美元的推理算力,100亿美元(730亿元人民币)的初始投入。
如果日活达到5亿,单单算力卡的初始投入就要达到1000亿美元(7300亿元人民币)。
我感觉已经可以看懂美国“星际之门”计划的账本。假设未来推理成本可以减半的情况下,5000亿美元的算力基础设施投资,大概可以支撑AI大模型的DAU(日活跃用户数)约为50亿。
那么,中游的云服务或者AIDC企业,可以从中赚到多少钱?按照GPU寿命5年计算,每年的设备折旧费用为1000亿美元(折7300亿元人民币),考虑到企业的利润需要,每年云服务或者AIDC企业可以从中至少赚到的钱至少万亿起步。
国内的云服务厂商主要是阿里云、华为云、腾讯云以及移动、联通、电信(天翼)三大运营商;代建运营的AIDC中,数据港与阿里巴巴深度绑定,92.47%的收入直接或者间接来自阿里巴巴及其控制企业;润泽科技则抱了字节的“大腿”,66.87%的收入来自字节跳动。
三、AI产业链上游
AI产业链上游主要是AI服务器厂商。

根据“尚普咨询”提供的资料,2023年中国服务器市场的前五大厂商中,浪潮信息稳居榜首,其市占率接近30%,排名第一无可争议;紧随其后的是华为、新华三,市占率介于10%至15%之间;其余席位,戴尔与联想跻身前五,市占率大概5%多一点。
此外,根据济南市政府新闻办2024年7月披露的数据,“浪潮AI服务器全球市场占有率第一、国内市场占有率超过50%”。2025年,国内互联网大厂及运营商的算力开支约为3543.75亿元,假设浪潮信息市占率能够持续保持在50%,那么,浪潮信息至少可以吃下1771.9亿元的销售额。
加上浪潮信息传统服务器的400亿元年收入,浪潮信息作为AI服务器龙头企业,2025年的年收入预计将超过2000亿元,可能达到2200亿元的规模。
三、小结
说实话,这个产业链并没有讲得很透彻,因为AI服务器的上游还有芯片(英伟达的GPU、华为的GPU)、存储等,受篇幅所限,在这里就不展开说了。
对于投资而言,其实把云服务、AIDC和服务器搞明白就差不多了,至于上游的国产AI芯片是个“慢工出细活”的事情,受制于诸多因素,国产化率提升不可能一蹴而就,它是个长期的事情。此外,上游AI芯片的估值普遍偏高,以寒武纪为例,市销率440倍,说实话,不是局内人,根本看不懂。