本文章搬运自American University in Cairo机械工程系副教授Omar Abdelazizhe报告 ,Omar Abdelazizhe在能源高效建筑技术、可持续能源利用、替代冷热技术及低全球变暖潜能值制冷剂等领域拥有超过 15 年的研发与项目管理经验,是国际上该领域的知名专家。


随着 AI、云计算和超大规模数据中心的爆发式增长,全球数据中心耗电量预计将在 2030 年翻倍至 945 TWh(IEA 2024 数据),其中美、中、欧贡献了 85% 的能耗负担。冷却系统作为数据中心的核心基础设施,不仅占据总能耗的 30%-50%,更成为制约机架密度提升、影响运营成本与可持续性的关键瓶颈。当传统空冷技术在 30kW / 机架以上的高密度负载面前逐渐失效,下一代冷却技术正引领一场从 “被动降温” 到 “精准控温” 的革命。

在此背景下,美国供暖、制冷与空调工程师学会(ASHRAE)作为全球 HVAC&R(供暖、通风、空调与制冷)领域的权威机构,通过制定热设计指南(如 ASHRAE 2021 Thermal Design Guidelines)、推动低全球变暖潜能值(GWP)制冷剂应用等举措,为冷却技术创新提供标准支撑。本文结合 ASHRAE 技术框架与实际工程案例,系统梳理数据中心冷却技术的演进路径,为高密度、可持续数据中心的建设提供技术依据。


评估数据中心冷却系统的优劣,需依托一套科学的量化指标,其中以 PUE、WUE 和 CUE 最为核心,它们共同构成了冷却系统的 “效率三角”。





长期以来,基于空气的冷却系统是数据中心的主流选择,核心组件包括计算机机房空调(CRAC)、计算机机房空气处理器(CRAH)、冷冻水回路及冷热通道封闭系统。其原理是通过送风设备将调节后的冷空气输送至服务器入口,再将排出的热空气回收冷却,技术成熟且部署广泛。

传统空气冷却系统通过计算机机房空调(CRAC)、计算机机房空气处理器(CRAH)、冷冻水回路或制冷剂系统,结合冷热通道隔离、活动地板等气流分配设计,将冷却后的空气输送至服务器入口,再排出热空气进行散热。这种技术成熟、部署广泛,但其局限性在高密场景下愈发明显: - 热容量低:需大量气流和大功率风扇,增加能耗; - 密度上限:难以支撑50kW/机架以上的高密负载; - 环境敏感:在高温地区能效大幅下降,且废热回收难度大; - 依赖加湿:在干燥地区需消耗大量水资源维持湿度。

根据ASHRAE 2021热设计指南,数据中心IT设备的推荐进气环境为:温度15-32℃,相对湿度30%-60%,并划分了A1-A4四个允许区域,其中A1区为低污染物环境的推荐范围,可在保证设备可靠性的前提下优化冷却效率。

为提升传统空冷的性能,行业衍生出直接蒸发冷却、被动后门冷却(依赖服务器风扇,支持20kW/机架,需露点控制)、主动后门冷却(配备热交换器风扇,支持75kW/机架)、带自由冷却的冷水机(根据环境温度切换制冷模式)等优化方案。尽管如此,空冷系统仍存在本质短板:
1. 密度上限低:空气低热容特性导致机架密度超过30kW后效率骤降,即使主动式后门冷却也难以突破75kW/机架;
2. 能耗高:需大功率风扇驱动海量气流,噪音与能耗同步增加;
3. 废热回收难:热空气温度低(通常<45℃),难以满足供暖、工业预热等场景的温度需求;
4. 地域适应性差:高温地区制冷效率低,高湿地区直接蒸发冷却的高水耗与水资源约束冲突。







当空冷技术逼近性能天花板,液体冷却凭借更高的换热效率、更强的高密度支持能力,成为下一代数据中心的核心解决方案,主要分为直接到芯片冷却和浸没式冷却两大方向。

直接到芯片冷却通过在 CPU、GPU 等高热流密度组件上安装冷板,让非导电冷却液直接流经冷板通道吸收热量,再通过冷却液分配单元(CDU)将热量导出。其核心优势在于换热效率高、服务器入口温度低,可大幅减少风扇需求,支持更高机架密度,尤其适用于 HPC 和 AI 数据中心。

该技术分为单相和双相两种方案,单相系统 PUE 约 1.13,双相系统可低至 1.07。关键组件包括冷板、CDU(集成泵、储液罐和换热器)及二次回路,冷却液需选用非导电流体以保障设备安全。通过改造现有空冷数据中心,直接到芯片冷却可将 IT 容量翻倍(例如从 15MW 提升至 30MW),机架密度最高可达 120kW。





不过,该技术也面临挑战:需管理泄漏风险、调整服务器和机架设计、优化冷却液选型与维护,且初期投入较高,与现有空冷基础设施的整合需整体规划。但其优势同样显著 —— 温度均匀性好、设备可靠性高,若冷却液出口温度达到 60℃,还可实现废热回收,成为连接空冷与全浸没冷却的 “过渡性核心技术”。
浸没式冷却将服务器或组件直接浸入绝缘冷却液中,彻底摆脱对空气的依赖,分为单相和两相两种技术路径,是超高密度场景(如 AI、HPC)的终极冷却选择。

单相浸没冷却 中,服务器浸没在不沸腾的绝缘液体中,热量通过液体对流传递至外部换热器,简化了通风设计,支持最高 150kW / 机架的密度,在高端数据中心应用日益广泛。其核心优势是无风扇依赖、能耗低,但需解决冷却液兼容性、设备维护便利性等问题。

双相浸没冷却 则利用冷却液的相变潜热进行换热:液体在服务器周围沸腾汽化,蒸汽上升至冷凝器凝结后回流至液浴,换热效率远超单相系统,可支持 200kW / 机架以上的超高密度(部分方案已达 250kW / 机架)。该技术无需复杂的气流设计,能耗和水耗显著降低,还能延长硬件寿命、减少碳排放,但初期基础设施投入更高,需解决蒸汽处理、冷却液选型及组件兼容性等挑战。

与直接到芯片冷却相比,浸没式冷却的优势更为突出:无需任何气流辅助(仅需保障人员舒适度的少量通风)、热移除能力极强、环境友好性更高,但基础设施改造更彻底,更适合新建数据中心或超高密度升级场景。




下一代冷却技术并非单一方案的替代,而是多元技术的融合与创新。

1. 混合冷却系统 当前行业尚未完全抛弃空气冷却,而是形成了"液冷+空冷""废热回收+主动冷却"的混合方案: - 热水回路废热回收:将芯片直冷产生的60℃左右热水用于区域供暖、锅炉预热等; - AI-based控制优化:通过人工智能算法优化CDU运行、冷却液流量与温度,适配AI负载的波动特性; - 微流控冷却:在芯片封装内集成冷却通道,进一步降低热阻,提升散热效率。 2. 未来趋势

- 双相冷却主流化:随着功率密度持续攀升,两相浸没冷却将成为高密场景的标准配置; - 废热回收标准化:数据中心将从"能耗大户"转变为"热能供应商",废热再利用成为标配; - 指标体系升级:可持续评估将超越PUE/WUE,纳入碳足迹、水资源足迹(WP)等多维指标; - 地域化设计:高温、缺水地区将优先采用浸没冷却,而寒冷地区将强化免费冷却与废热回收的结合。
数据中心的能耗与密度增长已不可逆转,传统空冷技术在 30kW / 机架以上的高密度场景中逐渐力不从心,冷却技术的战略转型已成必然。直接到芯片冷却、单相 / 两相浸没冷却及混合系统,凭借更高的效率、更强的密度支持和更好的可持续性,构成了下一代冷却技术的核心矩阵。

对于规划数据中心扩张的企业,尤其是 AI、HPC 领域,液体 / 浸没式冷却已不再是 “可选方案”,而是保障运营效率、控制成本、实现可持续目标的 “战略必需”。成功部署需依托整体规划:明确 PUE、WUE、CUE 等核心指标,做好成本效益分析,优化基础设施设计,确保运维就绪与可持续性整合。

在这场热管理革命中,冷却技术不再是 “辅助设施”,而是决定数据中心核心竞争力的关键要素。未来需进一步推动液冷系统标准化(如冷却液选型、泄漏检测)、降低初期成本,加速技术落地与产业升级。