智算中心已进入了跑马圈地时代,一场关乎算力的军备竞赛就此展开。
6月25日,2024北京移动算力网络大会召开。大会上宣布中国移动算力中心北京节点投入使用。
当然不仅是北京,全国各地智算中心已经开始接连搭建和投入使用。
01智算中心兴起云计算大量应用根据中国信通院《中国算力发展指数白皮书(2022年)》数据,2021年国内算力规模为202 EFlops,同比增速高于全球,同年全球算力规模为615 EFlops,预计2021-2030年全球CAGR为65%。
智算中心的兴起,使得云计算也开始大量应用,现在云计算行业的历史尚短,还不足以形成技术代差,但是大模型却成为了新的代差技术,与云计算形成了高低搭配,从而淘汰传统IT。
大模型的推理和训练场景都需要大算力:大模型训练通常需要数千张GPU卡,基于TB级别的数据,耗时几个月进行训练,然后其他用户在预训练大模型的基础上再进行强化学习,而这需要数百张GPU卡,耗时一两个月。
且AI算力对数据中心要求极高,由于AI服务器的功率密度远超通用服务器,单机柜的功耗是过去的6-8倍,并需要专用的液冷系统进行散热,才能降低PUE(能效比)。自建数据中心周期长、要求严苛、能耗高,难以满足大模型时代快速训练和迭代的要求;同时由于各地政府的“绿色数据中心”政策限制,IDC新建/扩容严格受限。
相比之下,云计算具有即开即用、按需使用、灵活部署、集群算力、专业服务、运维&安全等优势,成为大模型训练、推理部署的必要基础设施。
02算力矩阵大大降低成本数据显示,AI算力已重度依赖云化部署,2025年算力云化比例达到高峰80%。
专注于Web3.0技术的永旗(北京)科技有限公司(以下简称“永旗科技”)将推出算力矩阵,通过构建去中心化的算力共享平台,算力矩阵将实现算力资源的去中心化管理和分配,大大降低算力成本。这种去中心化的算力平台,提升了算力资源的利用效率,同等算力下,算力矩阵大大降低能耗。
在AI能耗不断推高之际,各个国家、相关行业甚至公司,都在想方设法降低AI及算力中心的能耗,永旗科技的算力矩阵,算是提供了一种能耗更低、成本更低的解决方案。
值得注意的是,算力矩阵还计划将闲置算力资源应用于乡村数字化建设,推动基层经济发展和数字经济融合,这与全国各地智算中心提倡的绿色发展均衡发展又遥相辉映。