数据中心根据算力可分为三类:云数据中心、智算中心和超算中心。云数据中心广泛应用于各领域,灵活扩展;智算中心以AI专用芯片为核心,推动AI产业化与智能化,服务于AI主要应用场景;超算中心则致力于科学与工程计算,得到国家科技部的重点布局与建设。
据Trendforce预测,2023年全球AI服务器出货量将超过120.8万台,同比增长超过37.7%。预计到2024年,全球AI服务器整机出货量将达到167.2万台,同比增长38.4%。同时,台积电在Q1法说会上表示,AI需求将以50%的复合增长率持续增长至2028年,AI服务器需求也将以较高速度持续增长至2028年。
根据国际数据公司(IDC)与浪潮信息联合发布的报告,预计2023年中国人工智能服务器市场规模将达91亿美元,同比增长82.5%。智能算力规模也将达到414.1EFLOPS,同比增长59.3%。在2022年至2027年期间,这一市场的复合增长率将达到33.9%。
AI服务器按用途划分为训练和推理两大类。训练型服务器对存储、带宽和算力有较高要求,通常采用8个GPU设计;而推理型服务器对算力、存储和带宽的需求相对较低,根据业务场景可选择GPU、NPU、CPU等不同芯片执行推理任务,或通过PCIe接口的AI加速器实现。
服务器随着场景需求经历通用服务器-云服务器-边缘服务器-AI服务器四种模式,AI服务器采用GPU增强其并行计算能力。CPU+GPU是AI服务器的核心部件。机柜级解决方案有望成为未来 AI 服务器出货主流形式之一 。
服务器发展面临三大挑战:首先,高性能GPU加速卡需多层高阶HDI板,如何确保PCB材料和产品质量;其次,AI服务器对传输速度要求极高,高速连接器正向56G-112G-224G发展,如何满足高速高密度背板连接器需求;第三,智能算中心向高密度发展,单颗高性能AI芯片热设计功耗将超过1000W,液冷技术成主要趋势。
-对此,您有什么看法见解?-
-欢迎在评论区留言探讨和分享。-