AI行业报告:算力租赁产业框架

报告研读小助理 2024-01-24 11:18:46

报告出品方:中泰证券

以下为报告原文节选

------

1、算力租赁因何而起

算力租赁行业的兴起逻辑

1.1 大模型兴起助推算力需求激增

算力是人工智能大模型训练的核心生产力,随着AI大模型的快速发展,智能算力需求正呈现爆发性增长态势。据IDC发布的《2023-2024年中国人工智能计算力发展评估报告》测算,2022年我国智能算力规模达260EFLOPS(每秒百亿亿次浮点运算次数),预计到2027年我国智能算力规模有望突破1117EFLOPS,中国智能算力规模年复合增长率将高达33.9%。预计到2030年,人工智能驱动的全球算力将增长500倍,一个千亿级智能算力蓝海市场已悄然开启。

大模型爆发带来算力需求激增,其成功背后有着万张训练卡的计算资源支撑。当前,热门生成式大模型现阶段训练主要依赖以A100/H100为代表的高性能GPU算力,其不仅能提供高效的数据的传输能力,还可以尽可能减少算力闲置。

1.1 算力需求暴增加剧高性能GPU价格上涨,交付周期变长

GPT等AI大模型的爆火带动超算集群背后的高性能GPU需求急剧增加,供需失衡导致卡价格大幅上涨,交付周期明显拉长。

• 市场需求高涨、产能有限双重驱动导致供需失衡,高性能GPU市场供应持续紧缺,价格不断上涨。据IDC数据显示,英伟达A100价格2022年12月份至2023年4月上半月期间,5个月价格累计涨幅即37.5%,2023年5月A100 GPU市场单价达15万元。而A800同期累计涨幅达20%, 5月A800 GPU市场单价达9.5万元。

庞大的需求量下,英伟达高性能GPU交付周期被迫拉长,未来交付存在不确定性目前是整个行业普遍面临的状况。

• 根据Omdia的统计数据,NVIDIA在2023年Q3售出了约50万块A100和H100计算卡,基于H100构建的服务器交付周期大概需要36周到52周不等。此外,Omdia预计2023年Q4时,A100和H100计算卡出货量将超过50万块,旺盛的需求导致相关服务器的交付周期长进一步延长。

• 对AMD MI210型号的GPU需求骤增,目前该GPU产品的交付周期已延长至16周之久。

• 根 据 英伟达官方说法,2024年Q1之前的GPU芯片早已全部售罄。

1.2 科技封锁政策下中国GPU市场租赁需求激增

由于技术代际差距和使用生态习惯,近年来我国人工智能算力芯片市场仍主要由英伟达主导。据IDC数据,2022年中国AI加速卡出货量约109万张,英伟达以85% 市占率保持着较高的竞争优势。然而,在贸易对抗和科技禁运的背景下,包括英伟达A800/H800在内的多款高端芯片被禁止对中国供应,中国AI大模型算力面临缺卡的困难,短期内挑战严峻。

• 2023年10月,美国商务部工业和安全局(BIS)发布了一系列出口管制规则,更新了对先进计算集成电路、半导体制造设备以及支持超级计算应用和最终用途的物项向包括中国在内的武器禁运国家的出口管制措施,并将中国的13家实体列入了实体清单。

受美国对华高科技行业逐渐严苛的限制威胁,国内市场算力缺口进一步增大,存量依赖与租赁需求激增。

• 英伟达卡进口受限:受科技禁运影响,英伟达高性能GPU进口受到严格限制,国内市场供应趋紧。

• 存量资源利用:为应对供应短缺,国内企业纷纷转向利用现有存量资源,包括优化现有设备配置、提升设备利用率等。

• 租赁需求爆发:在成本压力和市场需求的双重驱动下,企业“由买转租”的趋势愈发明显,GPU算力租赁需求迎来爆发式增长。

2、何为算力租赁

2.1 算力租赁及与云服务器的区别

算力租赁:将计算能力或云计算资源以租赁的方式提供给用户使用。允许用户通过租用他人的计算设备或云服务器来满足其计算需求,而无需自己购买和维护硬件设备。

• 用户只要按需付费,不用承担硬件设备的采购、维护、升级等费用,也不用担心设备闲置或者过时造成浪费;

• 用户可随时随地通过云端访问所需的算力资源,快速开始训练和应用;

• 用户可根据需求选择不同算力平台和机型,不受地域或者时间的限制模型、工具等资源,进行更多的尝试和探索。

算力租赁使得下游客户灵活使用算力的门槛降低。

• 对算力提供方:优化资源、将自身闲置的计算资源出租;

• 对算力需求方:可以最大限度地降低使用门槛。

2.2 算力租赁的三种商业模式

AI算力租赁的商业本质为具有大模型训练需求的软件研发厂商向具有GPU资源的厂商租赁GPU算力。出租方利润来源主要是租金收入减运营成本,其运营成本主要包括固定资产折旧,数据中心日常运营、IDC机房租金以及人员成本等。

AI算力租赁市场中,租金的计量方式因租赁双方的需求和资源状况而异。目前市场上常见的三类租金计量方式如下(三类计量方式间可相互换算)

• 按整台服务器租赁:以每台服务器(含8张GPU)为单位进行计量,租金按照每台每月的标准收取,适用于需要长期稳定使用大量GPU资源的客户;提供最新Nvidia GPU卡的同时具备低服务器运维成本。

• 按算力规模租赁:租金按每P每年计量,可以根据算力需求选择合适的算力规模,实现更加灵活的资源配置;

• 按单张GPU租赁:租金按照每GPU每小时计量,适用于短期或临时性的算力需求,可以根据实际需求随时调整卡的租赁数量。

2.3 算力租赁的重要性——有望挖掘存量资源潜力,以高性价比缓解当下算力短缺困局

在AIGC时代的大潮中,中国企业亦须紧跟AIGC时代潮流,积极寻求提升自身AI能力的途径,而这对应较大的算力水平需求。

在当前市场环境下,适用于AI计算的高性能GPU供不应求,许多AI公司无法购买到足够的计算卡来搭建自己的算力集群,而算力租赁可以高性价比缓解当下算力短缺的困局。

算力租赁是当前中小企业解决算力需求的最优解之一。目前,除了少数大型互联网企业自身资金实力充沛,可购买较多的GPU,算力储备较充足之外,剩下中小企业普遍面临算力紧缺,算力租赁需求突出。

• 对于规模较小的公司,购买GPU搭建算力集群的投入成本过高,租赁外部算力相对自建算力更合算、灵活。

• 自建集群规模固定、可扩展性较弱、可靠性较差,中小企业的算力需求往往难以通过自建算力设施解决,而算力租赁可有效降低除硬件成本外的维护、升级等长期投入,使其直接享受高性能算力的便利,以快速响应市场变化,把握发展机遇。

3、算力租赁未来发展探讨

算力租赁市场的未来——或向提供更高附加值的运营服务方向转型

算力租赁市场现有商业模式:基于硬件资源的按需租赁和按量付费模式。面对激烈算力租赁竞争,多元算力融合成为关键,算力市场将更加重视辅助运营服务,从提供硬件资源逐步转变为提供算力服务。

我们认为,未来,国内算力租赁市场或有望向提供更高附加值的运营服务方向转型。

• 算力调度:通过智能分配策略实现算力的灵活流动,进一步解决算力需求与资源分布不均的矛盾,快速满足上层应用多样化的算力需求,助推数字经济进入普惠共享的新阶段。

• 提供整体AI解决方案:以GPU云为例,其除了提供算力外,还包括了如AI软件开发相关的增值服务,是未来算力租赁的进阶方向,增值潜力高。

3.1 全国一体化算力网,算力调度运营进程加速

算力调度是根据算力资源提供方的供给能力和应用需求方的动态资源需求,整合区域内算力基础设施底层的计算、存储、网络等多维资源,基于算力调度平台对算力资源进行一致性管理、一体化编排和统一调度,可以整合多张算力卡来应对外围禁售、优化算力资源配置,是解决算力供需矛盾、算力网络传输问题、算力资源普惠问题的新型能力体系。

“以网强算”是发展算力网络的根本路径。算力网络可以实现云、边、端算力的高效调度,吸纳全社会算力资源,组成泛在、立体的算力网络,实现智能调度和全局优化。

• 全国一体化算力算网调度平台综合集成网络情况+综合算力+算力调度“三位一体”推动我国算力算网调度发展。平台汇聚通用算力、智能算力、高性能算力、边缘算力等多元算力资源,针对通用、智算、超算等不同客户需求,设计异构资源池调度引擎,实现不同厂商的异构资源池的算力动态感知与作业智能分发调度。在AI训练作业调度流程中,作业可在智算资源池上进行训练推理,在通用算力资源池部署,从而实现跨资源池/跨架构/跨厂商的异构算力资源调度。

3.2 整体AI解决方案激发极致算力

整体AI解决方案重视全栈客户体验:从设备到算力,基于客户全场景需求,围绕算力咨询、建设和运营等全周期,提供端到端全栈专业服务,全程护航算力集群建设、人工智能创新、产业聚合发展。

AI解决方案的四个关键功能:

• 自动化流程:通过收集和解释输入其中的大量数据,可以利用人工智能解决方案来确定流程中的下一步并无缝执行。

• 数据分析与解释:创建结构化和非结构化数据的知识库、分析和解释数据,根据其发现做出预测和建议。

• 用户个性化和参与度:使企业能够为客户提供个性化的服务,并实时预测和解决担忧。

• 业务效能:支持新服务和功能。

3.2.1 英伟达DGX Cloud——通过浏览器就能即时接入AI超级计算机

DGX Cloud:集成一流软件的AI超级计算服务。可直接访问 NVIDIA AI 专家,近乎无限地访问高性能计算,为开发人员提供行业领先的利用效率、规模和高效工作能力,使企业能够立即访问为生成AI和其他突破性应用程序训练高级模型所需的基础设施和软件。DGX Cloud实例价格为每实例每月36999美元起。

• DGX Cloud租赁服务提供访问NVIDIA云计算机的机会,硬件出类拔萃,性能卓越,其每台计算机都配备了强大的H100或A100 GPU以及高达640GB的GPU内存,为企业进行深度学习、机器学习等计算密集型任务、运行复杂的人工智能应用程序提供了强大的支持;提供企业按月租用的专用基础设施,确保可以快速开发大型多节点训练工作负载。

• 商业模式:将DGX Cloud 托管在各家云服务商的云平台上提供服务,即NVIDIA 将基础硬件设施出售给云厂商,再向其购买云计算资源,最后把云服务出售给企业客户并自留全部收入。

--- 报告摘录结束 更多内容请阅读报告原文 ---

报告合集专题一览 X 由【报告派】定期整理更新

(特别说明:本文来源于公开资料,摘录内容仅供参考,不构成任何投资建议,如需使用请参阅报告原文。)

精选报告来源:报告派

科技 / 电子 / 半导体 /

人工智能 | Ai产业 | Ai芯片 | 智能家居 | 智能音箱 | 智能语音 | 智能家电 | 智能照明 | 智能马桶 | 智能终端 | 智能门锁 | 智能手机 | 可穿戴设备 |半导体 | 芯片产业 | 第三代半导体 | 蓝牙 | 晶圆 | 功率半导体 | 5G | GA射频 | IGBT | SIC GA | SIC GAN | 分立器件 | 化合物 | 晶圆 | 封装封测 | 显示器 | LED | OLED | LED封装 | LED芯片 | LED照明 | 柔性折叠屏 | 电子元器件 | 光电子 | 消费电子 | 电子FPC | 电路板 | 集成电路 | 元宇宙 | 区块链 | NFT数字藏品 | 虚拟货币 | 比特币 | 数字货币 | 资产管理 | 保险行业 | 保险科技 | 财产保险 |

2 阅读:404