首页
产品服务
模型广场
Token工厂
算力市场算力商情行业资讯
注册

海悟|数据中心液冷技术:从机房机柜到AIDC时代液冷散热革命

发布日期:2026-04-16 来源:搜狐网作者:搜狐网浏览:1

AIDC建设提速,液冷散热需求全面爆发

  数据中心作为支撑云计算、人工智能、物联网的核心基础设施,由IT设施层和基础设施层构成,其中制冷系统作为基础设施层的关键环节,占数据中心初始投资约15%~20%,直接决定数据中心的稳定性和运营效率。随着AI技术的快速迭代,我国数据中心市场规模持续增长,2024年市场规模达2773亿元,预计2025年将达3180亿元,2020~2025年CAGR为22.2%;2024年在用标准机架总数达到900万架,与此同时,人工智能推动数据中心向智能计算升级,中国智能算力规模2020~2025年CAGR达69.11%,预计2028年将达到2781.9EFLOPS,智算中心已成为算力基础设施建设的核心方向。

芯片功率密度攀升,风冷技术彻底触顶

  大模型与AI应用的快速迭代,推动算力芯片性能持续突破,芯片功耗呈指数级增长。从英伟达A100芯片400W功耗,到GB200芯片2700W功耗,再到即将到来的Rubin系列芯片,单芯片功耗预计将达到2000W,采用NVL72方案的机柜功耗或将超过160kW。芯片功率的飙升直接带动单机柜功率大幅上涨,当前主流机柜功率已达50~100kW,传统风冷技术的物理局限彻底暴露,当机柜功率超过20kW后,风冷已无法保障服务器稳定运行,液冷从“可选”变为AIDC时代的“刚需”。

政策+成本双重驱动,液冷成为行业必然选择

  1. 政策端:PUE要求趋严,液冷是绿色低碳关键路径。我国“双碳”战略下,中央及地方对数据中心电能利用效率(PUE)要求持续收紧,2024年《数据中心绿色低碳发展专项行动计划》明确要求,2025年底全国数据中心平均PUE降至1.5以下,新建大型和超大型数据中心PUE降至1.25以内,国家枢纽节点数据中心PUE不得高于1.2。相较于风冷(PUE普遍1.4以上),冷板式液冷可将PUE降至1.25以下,浸没式液冷更可降至1.1左右,完美契合政策要求,成为数据中心绿色转型的核心支撑。

  2. 成本端:TCO优势显著,长期运营性价比突出。液冷系统虽初始资本支出(CAPEX)略高于风冷,但随着机架功率提升,成本优势逐步显现;在运营支出(OPEX)端,液冷可实现全年全地域自然冷却,大幅降低冷却功耗和电费,以10MW数据中心为例,液冷方案(PUE1.15)较冷冻水方案(PUE1.35)约2.2年可回收初投资。综合来看,冷板式液冷在CAPEX和OPEX平衡上表现最优,成为当前综合TCO最低的散热方案。

自然冷源:液冷时代的“绿色辅助”,适配差异化场景

  受传统硬件、现有设施及服务等级协议(SLA)限制,现有数据中心通常需将机房温度控制在18-21°C(64-69°F)之间,一年四季都需要持续制冷。但在冬季及过渡季节,室外温度低于室内温度时,自然界中蕴藏着丰富的“免费冷源”,合理开发利用自然冷源,是降低数据中心能耗、优化PUE的关键举措,更能与液冷技术协同,进一步提升节能效果。

  目前,自然冷却技术主要分为空气侧自然冷却、水侧自然冷却、氟侧自然冷却及二氧化碳载冷技术,其中空气侧和水侧自然冷却技术应用最为广泛。

  新风直接自然冷却是最直接的方式,通过新风系统将室外冷风直接引入数据中心,减少换热流程,节能效果显著。目前该技术已在多个地区落地应用:雅虎在纽约的数据中心采用全新风自然冷却技术,PUE低至1.08;腾讯贵安七星数据中心依托贵州溶洞的自然风,通过特殊设计让山洞成为“天然空调”,室外冷空气从主洞口进入,经制冷模块与IT设备热回风间接换热后从竖井排出,既充分利用自然冷源,又避免外界空气对设备的侵蚀,极限PUE可达1.1左右。

  直接水侧自然冷却技术也在稳步推广,该技术直接抽取湖泊、海水等自然低温水源,将冷却源直接引入数据中心,不影响机房内部环境,可最大化利用自然冷源,节能效益突出。谷歌在芬兰的数据中心,依托临近芬兰湾的地理优势,通过水下通道抽取海水,混合热水调温后用于冷却,年均PUE约为1.14;微软“纳提克”海底数据中心研究计划,将服务器密封在钢制容器中沉入北海,利用海水直接冷却服务器,大幅降低能耗。

  自然冷源的选择需结合数据中心所在地的气候、温湿度条件。我国华北、西北、东北等地区,全年室外气温低于10℃的天数占比可观;“东数西算”规划的十个国家枢纽节点集群,均具备优越的气候条件,利用当地自然冷源不仅能节省机械制冷能耗,且自然冷源供给充足、无污染,是名副其实的绿色冷源,可与液冷技术协同,进一步降低PUE。

液冷技术路线百花齐放,适配AIDC多元算力场景

  液冷技术是利用液体作为冷却介质,直接或间接接触热源进行热量传递的先进散热技术,以水冷为例,其综合冷却效率可达风冷的3000倍以上。并非所有企业都能将数据中心建在四季凉爽、可利用自然冷源的区域,例如2023年我国华南、华中地区数据中心平均PUE均超过1.5,远高于全国平均水平。要突破这一困境,降低PUE,就必须提升散热效率,而从风冷转向液冷,是最典型、最有效的选择。

  风冷散热的核心是通过强制对流和空调系统,将服务器产生的热量排出机房,其主要依赖空气作为冷却介质。但空气的导热、吸热能力极差,之所以被广泛应用,仅因为其易获取、流动性好。而同样易获取、流动性佳的水,导热和吸热能力是空气的20倍;若采用更优质的液体材料,导热效率还能实现质的飞跃。这就决定了液冷散热必然比风冷更高效、更省电。

  根据冷却介质与发热体的接触方式,液冷技术可分为间接接触液冷(冷板式)和直接接触液冷(浸没式、喷淋式),同时微通道等新型液冷技术持续演进,各技术路线在散热效率、PUE、成本、成熟度上各有优劣,适配不同算力场景。

冷板式液冷:技术成熟,当前市场主流

  冷板式液冷是目前成熟度最高、应用最广泛的液冷方案,2024年上半年市场占比超95%,其核心原理是冷却液通过冷板与CPU、GPU等发热芯片直接热接触,吸收热量后通过CDU(冷量分配单元)完成热交换,服务器剩余20~40%热量由风冷辅助排出,可满足机柜50-100kW+的散热需求,完美适配当前AIDC主流算力场景。

  1. 系统构成:分为一次侧(室外)和二次侧(室内)循环,由液冷板/冷头、管道/快速连接器、CDU、设施冷源、传感监测系统等核心部件协同运行,实现“端到端”的热量传递。

  2. 技术分支:按冷却液是否相变分为单相和两相冷板,单相冷板技术简单、运维难度低,为当前主流;两相冷板通过冷却液相变吸收大量热量,散热效率更高,但对系统压力、零部件适配性要求更严苛。

  3. 应用形态:根据应用场景不同,冷板式液冷可分为三种类型:

  • 部分冷板式:仅在CPU等核心发热部件上安装冷板,冷却液在冷板内部循环吸热。其优点是结构简单、易于部署,适配现有服务器改造,兼容性和灵活性极强;缺点是仅能实现局部散热,整体散热效果有限,需搭配风冷系统辅助散热。
  • 全冷板式:在服务器所有发热部件上均安装冷板,实现全覆盖散热。其散热效果优于部分冷板式,适配高功率密度场景;但系统结构复杂、建设成本较高,对服务器设计精度要求较高。
  • 冷板背门式:在服务器机柜后门安装液冷散热模块,通过冷却液带走机柜内的热量。其优点是无需改造服务器,部署灵活,可在原有设备基础上升级,适配中高功率密度场景;缺点是未直接接触发热部件,散热效率一般,且需额外配置管道和泵系统。

浸没式液冷:极致能效,适配高密智算

  浸没式液冷将电子元器件完全浸没在非导电、高热容量的冷却液中,实现热量直接传递,可完全去除服务器散热风扇,PUE可降至1.1及以下,机柜散热能力达75-225kW+,是超高功率密度智算中心的优选方案,适配Rubin系列芯片等下一代超高算力场景。

  1. 技术分支:按冷却液是否相变分为单相和两相浸没式,按机柜形态可分为卧式和立式。立式浸没机柜兼具浸没式的高能效和冷板式的维护便捷性,成为当前技术演进方向;两相浸没式通过冷却液沸腾汽化实现高效散热,散热效率优于单相,但技术复杂度更高。

  2. 冷却液选择:是浸没式液冷的核心环节,当前主流为油类工质(矿物油、合成油、有机硅油)和氟化液。合成油黏度低、PUE表现优异,氟化液绝缘性强、化学惰性高,但成本较高且存在环境影响,冷却液的性能直接决定浸没式液冷的散热效果和运营成本。

  3. 工作原理:以相变浸没式液冷为例,系统主要由冷却介质、密封浸没腔体、液冷连接系统、液冷换热模块(CDM)和室外散热设备组成。将服务器放入密封浸没腔,所有发热元器件均浸没在冷却介质中;服务器运行产生的热量被冷却介质吸收,由于冷却液沸点较低(如FCM-47沸点为47℃),吸收热量后会从液态转化为气态,带走大量热量;气态冷却介质经收集后进入CDM冷凝器,被冷却水冷凝为液态,热量传递给冷却水,再通过室外冷却塔将热量散发到外界,完成整个散热循环。二次侧冷却介质通过“加热—沸腾—冷凝—回流”循环,系统温度恒定在冷却液沸点,保障服务器稳定运行。

喷淋式液冷:精准散热,低液量消耗

  喷淋式液冷是面向发热器件的精准直接接触散热技术,通过喷淋模块将冷却液直接喷射至发热元件表面,吸收热量后经换热器完成热交换,可去除服务器散热风扇,PUE约1.1,冷却液用量较浸没式大幅减少。该技术换热能力强,但需对机柜和服务器进行定制化改造,且面临喷嘴堵塞、冷却液回收等运维挑战,目前市场接受度较低,技术成熟度处于中低水平。

微通道液冷:突破物理极限,面向未来超高算力

  微通道液冷是冷板式液冷的前沿演进方向,核心是在冷板内部构造微米级细小流道,利用极高的表面积体积比增强导热性能,可应对单芯片TDP>2000W的超高热流密度需求,是英伟达Rubin系列芯片等下一代算力芯片的关键散热技术。

  根据与芯片集成的层次,微通道液冷可分为冷板微通道(MCCP)和微通道水冷板(MLCP),其中MLCP将金属盖与液冷板整合,冷却液直接流经芯片表面,极限减少热阻,但目前制造成本高、量产良率低,尚未实现大规模商业化应用。

各技术路线对比:冷板式率先放量,多路线协同发展

  各液冷技术路线在散热效率、PUE、成本、成熟度上呈现显著差异化,冷板式液冷凭借技术成熟、改造成本低、运维难度小的优势,成为当前液冷市场放量的核心主线;浸没式液冷凭借极致PUE和高散热能力,成为新建高密智算中心的优选;微通道液冷作为突破物理极限的技术储备,代表未来超高算力散热的核心方向,多条技术路线将协同发展,适配不同算力场景的散热需求。

行业发展趋势与风险提示

行业发展趋势

  1. 液冷行业进入放量元年:英伟达Rubin系列芯片将液冷列为强制标配,随着新一代芯片陆续出货,液冷将从“小众方案”向AIDC基础设施标配升级,行业迎来高速增长通道。
  2. 冷板式率先放量,浸没式逐步渗透:冷板式液冷技术成熟、改造成本低,将成为未来1-3年液冷市场放量的核心;随着高密智算中心建设提速,浸没式液冷在超高功率密度场景的渗透率将逐步提升。
  3. 国产厂商迎来进口替代机遇:国内企业在液冷核心部件、综合解决方案上已形成核心竞争力,依托本土客户资源和快速响应能力,将在全球液冷产业链中占据重要地位。
  4. 技术协同与创新持续升级:风冷与液冷混合方案、微通道液冷、新型冷却液等技术持续迭代,软硬协同成为液冷技术发展的重要方向,以适配更高算力芯片的散热需求。

风险提示

  1. 数据中心建设进展不及预期:若受电力供应、信息安全、宏观经济等因素影响,数据中心建设节奏放缓,将直接影响液冷设备的需求释放。
  2. 液冷技术发展不及预期:若液冷技术在稳定性、安全性、商业化落地等方面表现不及预期,将制约行业整体发展速度。
  3. 市场竞争加剧:液冷行业高景气吸引众多企业入局,各细分赛道竞争逐步激烈,可能导致行业毛利率下降,企业盈利承压。
  4. 行业标准尚未统一:目前液冷行业尚未形成全国统一的技术标准和测试规范,不同厂商产品兼容性不足,可能影响行业规模化发展。

结语

  从ENIAC时代的“铁皮柜通风”,到风冷时代的精密空调,再到AIDC时代的液冷普及,数据中心散热技术的每一次迭代,都源于算力升级的需求驱动。在AI算力需求每18个月翻番的背景下,液冷技术已不再是单纯的热力学解决方案,而是关乎数字经济底座安全、支撑AIDC高质量发展的核心战略支撑。未来,随着技术持续创新、成本逐步下降、行业标准不断完善,冷板式、浸没式、微通道液冷等多路线协同发展,液冷技术将全面渗透智算中心建设的各个场景,不仅破解超高密算力散热难题,更将推动数据中心向更绿色、更高效、更可靠的方向迈进,为数字经济高质量发展筑牢算力底座。

本文转载自搜狐网, 作者:搜狐网, 原文标题:《 海悟|数据中心液冷技术:从机房机柜到AIDC时代液冷散热革命 》, 原文链接: https://news.sohu.com/a/1010124776_122415470。 本平台仅做分享和推荐,不涉及任何商业用途。文章版权归原作者所有。如涉及作品内容、版权和其它问题,请与我们联系,我们将在第一时间删除内容!
本文相关推荐
暂无相关推荐
点击立即订阅