16个中国液冷数据中心项目盘点

科技梦想家阿山 2024-09-03 01:21:59

在数字经济的快速发展下,数据中心作为信息时代的“大脑”,其能效与散热技术的优化已成为行业关注的焦点。尤其是近年来,随着计算需求的爆炸式增长,传统风冷方案逐渐显示出其局限性,液冷技术因其出色的散热效率而成为业界新宠。

目前,中国液冷数据中心的规模化应用仍处于初级阶段,主要应用于对计算密度要求极高的场景,如超级计算中心和部分先进的互联网企业数据中心。例如,国家超级计算深圳中心二期项目、阿里巴巴仁和数据中心等,都采用了液冷技术,以应对日益增长的散热挑战。

液冷技术相较于传统风冷技术,具有更高的散热效率和能源利用率。特别是在高密度、高功耗的数据中心环境中,液冷能显著降低PUE(功率使用效率)值,实现更为绿色、节能的运营。然而,液冷技术在国内数据中心的推广应用仍面临一些挑战,包括成本较高、技术成熟度有待提升、市场认知度不足等问题。

中国IDC圈整理为了展现了液冷技术在中国应用的多样性和广泛性整理了液冷数据中心项目案例。从冷板式到浸没式,从超级计算中心到云数据中心,各类项目的成功实践。我们收集的16个项目中,11个项目采用了浸没式液冷方式,主要是一部分为超算项目,一部分为液冷实验项目。真正商用的液冷主要互联网数据中心项目,这些项目不仅证明了液冷技术在提升数据中心能效方面的巨大潜力,也为行业的发展提供了宝贵经验。

特别关注——液冷数据中心项目篇

1、国家超级计算深圳中心二期项目— 深圳 | 浸没式

2022年11月14日,我国在建的最大超算中心——国家超级计算深圳中心项目二期正式开工,项目位于深圳市光明区,据了解,本项目将建设持续计算能力达2Eflops,存储能力可扩展到1000P的E级计算机应用系统。项目用地面积4.6万平方米,总建筑面积11.28万平方米,建设周期从2022年至2025年。项目投资额 120 亿元,将采用曙光的浸没式液冷服务器。

2、天府云数据产业基地项目— 四川 | 冷板式

四川能投天府云数据产业基地位于成都简阳空天产业园,项目于2021年12月开工,2022年8月15日封顶,是四川省重点推进项目,是四川能投集团落实省委、省政府“5+1”产业布局在数字经济领域的引导性新基建标杆项目。

项目一期投资9.75亿,占地208亩,建筑面积47000平方米,包括3栋单体建筑,其中2栋数据中心楼、1栋运营楼,规划5000个平均功率5.49KW的高标准机柜。项目遵循国家标准A级数据中心建设等级要求,并采用冷板式液冷、水冷+自然冷却和余热回收等技术,依托四川能投自身的绿色能源优势,借力集团在相变液冷、地热、储能、氢能等方面的内部资源,实现PUE小于1.25的目标。

3、合肥先进计算中心项目— 安徽 | 浸没式

合肥先进计算中心“巢湖明月”是合肥综合性国家科学中心重大科技基础设施和公共服务平台,拥有科学计算、智能计算、液冷、存储等在内共1500多台服务器。该中心由合肥市大数据资产运营有限公司建设,系统建设规模为双精度计算峰值12PFlops、整数计算峰值256Pops、数据总存储容量15PB。其中,双精度计算峰值相当于31250台酷睿I7-9700电脑,存储容量相当于117187部128G手机,采用浸没式液冷技术。

4、国家超级计算郑州中心项目— 河南 | 浸没式

国家超级计算郑州中心建筑面积共4万余平方米,其中,机房及环境配套设施建筑面积9千余平方米。中心主机系统取由“中岳嵩山”,被命名为“嵩山”超级计算机,该中心主机系统总体设计按照“安全可控、应用包容、按需扩展、高效节能”的基本原则,配备新一代高性能计算机——“嵩山”超级计算机,理论峰值计算能力100PFlops,存储容量100PB,采用绿色节能的浸没式相变液冷冷却技术,PUE值低于1.04。

5、国家电网宁波北仑数据中心项目— 浙江 | 浸没式

2020年10月,云酷智能在宁波北仑高塘变电站变成功打造浙江首台PUE低于1.08的室外模块化浸没式液冷数据中心。该数据中心采用模块化液冷机房部署方式,外置冷却塔系统散热,项目建设机房总容量334U,总功率100kW。经北京信通院检测,该数据中心PUE<1.04,节约65%占地面积,缩短70%建造时间,每年节约电量302745kW·h,节省电费约24.22万元。

6、国家超级计算成都中心项目— 四川 | 浸没式

国家超算成都中心位于四川成都天府新区兴隆湖东南角。2020年9月,国家超算成都中心投运,项目采用浸没式相变液冷技术为超算核心设备提供高效换热,最高运算速度达10亿亿次/秒。投运来,超算中心先后为北京、上海、广州、重庆等35个城市的760余个用户提供了算力服务,服务领域涵盖航空航天、装备制造、新型材料、人工智能等30个领域,包括高海拔宇宙线观测站等13个国家重大科技基础设施、国家级课题。

7、国家超级计算昆山中心项目— 江苏 | 浸没式

2020 年,国家超级计算昆山中心建设项目顺利通过科技部组织的专家验收,项目总算力达 400Pflops。拥有 CPU+DCU 计算单元结构,CPU 采用国产曙光 7000 系列,DCU(类 GPU 结构)采用国 产海光1号加速器,项目采用了曙光的全浸没液冷服务器。

8、地球系统数值模拟装置专用高性能计算机— 北京 | 冷板式

2015年,中科院大气物理研究所的“地球数值模拟装置原型系统”率先使用冷板式液冷服务器,大大提高散热效率,也成为国内液冷服务器大规模使用的第一个公开案例。2017年,该系统上榜当年全球高性能计算机(HPC)TOP500榜单。

9、山西先进计算中心项目— 山西 | 冷板式

山西先进计算中心暨计算科学产业基地是在太原市人民政府、山西转型综合改革示范区、中科曙光的大力支持下,以原中国科学院先进计算技术创新与产业化联盟北京计算中心为基础组建的。作为该中心的建设和运营主体,国科晋云正是它们三方合作的成果。据悉,山西先进计算中心项目于2017年底签约、2018年10月份开始运行。每秒4000万亿次的超级运算的 “硅立方”系统颠覆了传统的风冷制冷方式,采用的是冷板式液冷降温,大约能够降低40%的能耗。

10、阿里巴巴浙江云计算仁和数据中心项目— 浙江 |浸没式

2020年9月,阿里巴巴浙江云计算仁和数据中心(以下简称“阿里仁和数据中心”)正式开启服务,该项目位于余杭区钱江经济开发区,采用了多项阿里巴巴最先进节能技术进行规划设计与建造,如服务器全浸没液冷、高压直流(HVDC)、供配电分布式冗余(Distribution Redundancy)、智能AI优化算法等。由于服务器全浸没液冷技术的大规模利用,阿里仁和液冷数据中心整体能源使用效率只有1.09,达到目前世界最领先水平。

11、阿里云北京冬奥云数据中心项目— 河北 |浸没式

阿里云张北数据中心位于河北省张家口市张北县,距离首都北京约220公里,所承载的华北3节点已成为阿里云对外服务的最大核心地域节点之一,也是2022年北京冬奥会的主数据中心(阿里云北京冬奥云数据中心)。该区域由3个相距20公里左右的数据中心园区组成,也是国内企业首个采用三点式布局的数据中心集群。阿里云浸没式液冷实验的首要目标并不是追求极致的PUE,冷却水系统采用30~35℃的供回水就可以维持服务器的正常运转,扩大了数据中心采用自然冷却的选择范围。一个30万台服务器规模的云数据中心集群,以每台服务器600W计算,如果年均PUE能够从1.25降至1.1,一年节电即可超过2亿度,相当于减少20万吨二氧化碳的排放量。

12、腾讯清远数据中心项目— 广东 | 冷板式

腾讯数据中心联合星星海实验室展示了光伏,服务器液冷等技术在数据中心中的应用、数据中心绿色能源解决方案以及nanoT-block户外一体柜,描绘了分布式云背景下的腾讯数据中心零碳蓝图。此次联合星星海实验室展出的腾讯液冷技术已经在清远清新数据中心小规模研究验证,通过液冷冷板直接为cpu散热的方式,将T-block本就很低的年均PUE进一步降到了1.10。

13、润泽科技国际信息云聚核港项目— 河北 | 冷板/浸没式

润泽科技国际信息云聚核港项目服务于国内某知名短视频企业,于2023年7月1日投入使用。该项目总建筑面积 41726.34平方米,建筑高度 30.6米,规划设计建设2124架液冷机柜,单机柜功率最低21kW,最高功率达50kW。

14、中联绿色大数据产业基地项目—山西 | 冷板/浸没式

“中联绿色大数据产业基地”是中联数据集团在大同阳高建设的国内单体最大的超大规模定制化数据中心,总装机规模预计10万+高密机柜,规划总占地规模约1000亩,总建筑面积超过50万平方米,项目综合投资预计超300亿元。本次建设的机房为字节跳动专用机房,机柜功率密度较高,末端采用风墙、板式液冷、浸没液冷等多种方式。经多次技术比较、评选,确定间接复合直接蒸发冷却技术节能效果最好,能充分利用当地优良的气象资源。

15、京东云华北(廊坊)数据中心项目— 河北 | 冷板式

京东云华北(廊坊)数据中心项目借助京东云的整机柜冷板式液冷技术,可以实现芯片级液体直接冷却,将室外冷源(水或氟化物)直接注入服务器主板芯片进行冷却,达成系统去冷机化。CPU散热由冷却液通过室内板式换热器换热后,可直接利用室外冷却塔进行散热,全年及全国绝大部分区域内均可进行自然冷却,实现超低PUE。在规模投入2021年京东11.11的数据中心,借助液冷技术可以实现全年运行PUE低于1.1,基础设施能耗节省可达30%,对应碳排放总量减少10%以上。

16、中国电信中部智算中心项目— 湖北 | 浸没式

中国电信中部智算中心建在位于武汉东湖高新区的中国电信中部大数据中心(武昌基地)。据了解,中部智算中心一期项目液冷机房,该项目可提供200P的算力,相当于20万个1TB移动硬盘的数据在1秒内即可处理完毕。该项目首次采用基于国产AI基础软硬件平台的方案架构,实现算、存、网、电、热整体设计。通过独特的嵌入式液冷单元,盲插总线架构,实现液冷到芯片,液冷到服务器,液冷到机柜,全场景PUE≤1.15.在达到业内一流绿色节能环保水平的同时,可支持部署万亿参数大模型。

……

随着大数据、人工智能、云计算等技术的不断进步,数据中心对于算力和能效的需求将进一步提升,液冷技术的应用潜力将更加凸显。为了促进液冷技术在中国数据中心领域的广泛应用,行业需要加大技术研发和创新力度,降低应用成本,同时加强市场教育和推广,提升液冷技术的认知度和接受度。

虽然液冷技术在中国数据中心的应用还面临一系列挑战,但随着技术的不断成熟和市场的逐步开拓,液冷技术有望在未来成为中国乃至全球数据中心散热解决方案的重要选择。

| 文章来源:中国IDC圈

2 阅读:195

科技梦想家阿山

简介:感谢大家的关注