说实话:风冷已经达到了它的极限。如果您正在运行高密度服务器或人工智能集群,您已经知道这一点。这就是为什么世界各地的数据中心都在转向液冷解决方案——更高的热效率、更低的PUE,以及降低总拥有成本的更快捷径。
几十年来,空气冷却一直是标准配置,但现在已不再适用。传统的空调(CRAC/CRAH)设备难以承受每个机架超过 15-20 千瓦的功率。目前,高性能 CPU 和 GPU 的单芯片功耗为 300W-700W ,而英伟达 H100 或 AMD Instinct 等人工智能加速器的功耗可超过 700W。空气的比热容低、导热性差,需要大量气流,导致风扇噪音大、寄生功率高、冷却能力有限。.

相比之下,液体冷却解决方案利用的是水或介电流体,其热传导效率要高出几个数量级。液体的导热性比空气高 30-50 倍,比热容大约高 4 倍。这一基本优势使液体冷却成为高密度数据中心的唯一可行途径。.
液体冷却解决方案的主要优势
大幅降低能耗效果
对于任何数据中心而言,最有说服力的指标就是 PUE。传统风冷设施的 PUE 通常为 1.5-1.8,这意味着有 50-80% 的额外能源用于冷却。精心设计的液体冷却解决方案可实现低至 1.04-1.1 的 PUE,接近理论上的统一值。直接到芯片(冷板)和浸入式冷却可省去大部分风扇,减少冷却器负载,从而将冷却能耗降低 50-80%。.
支持极端功率密度
气流管理的最高功率约为每个机架 30 千瓦,而液体冷却解决方案可轻松支持每个机架 50 千瓦、100 千瓦甚至 200 千瓦。这种能力对于人工智能训练集群、高性能计算模拟和大规模云计算至关重要。谷歌、微软和 Meta 等超大规模企业已经在部署液冷机架,以在每平方英尺内容纳更多计算,从而减少整体设施占地面积和基础设施成本。.
实现自由冷却和热量再利用
与需要冷冻空气(约 22°C)的空气冷却不同,液体冷却系统的工作温度较高(40°C-65°C)。这样,液体冷却解决方案就可以在一年中的大部分时间里利用干式冷却器或冷却塔进行自由冷却。更妙的是,废热可以重新利用,为建筑物、温室或区域供热网络供暖--将成本中心转化为收入来源。.
降低风扇噪音、维护和服务器故障率
风冷需要在服务器内安装高速风扇,这些风扇会消耗电力、产生噪音(通常大于 85 分贝)并积聚灰尘。风扇是服务器中最容易出故障的部件之一。液冷解决方案消除了服务器本身的大部分风扇(某些设计中的内存/虚拟机管理器除外),从而实现更安静的运行、更低的振动和更高的可靠性。研究表明,液冷服务器的年故障率比风冷服务器低 25-40%。.
数据中心液体冷却解决方案的类型
直接对芯片液体冷却(冷板)
冷板直接连接到 CPU、GPU 或内存上,液体在冷板中循环。这种闭环液体冷却解决方案为其他组件(存储、网络)保留了空气冷却。这是现有数据中心最常见的改造方案。.
单相浸入式冷却
服务器浸没在专门设计的水箱中的非导电介质中。热量从所有组件直接传递到液体中,然后被泵送到热交换器。这种液体冷却解决方案密度最高,而且完全无需风扇。.
两相浸入式冷却
电介质在低温下沸腾;蒸汽上升,在冷却的线圈上凝结,然后滴回。两相浸入式可提供更高的单位升热量去除率和被动循环(液体无需泵),但需要小心处理蒸汽。.
液体冷却是否安全可靠?
液体和电子元件不能混用--泄漏怎么办?
现代液体冷却解决方案设计在密封的冷板回路中使用介电流体(浸入式)或含有腐蚀抑制剂的蒸馏水。泄漏检测系统和防泄漏快速断开是标准配置。在浸入式冷却中,电路板被设计为在浸入水中运行,由于液体不导电,因此不可能出现短路。.
改造工程昂贵而复杂
虽然液体冷却基础设施(水箱、CDU、管道)的前期资本成本可能高于空气,但由于节约能源、提高密度和延长硬件寿命,3-5 年的总拥有成本(TCO)几乎总是更低。许多供应商提供可与标准 19 英寸机架配合使用的模块化液体冷却解决方案套件。.
维护和出入情况如何?
浸入式水箱允许热插拔服务器--只需将服务器抬出,排出多余的液体,然后进行维护。流体损耗极小,而且可以补充。直连芯片回路使用快速连接器,断开时会自动关闭。.
液体冷却不再是可选项,而是必需品
行业已达到临界点。风冷根本无法处理现代人工智能加速器、高内核数处理器和密集存储阵列的热负荷。液体冷却解决方案可提供下一代数据中心所需的热余量、能效和可靠性。.
无论您是选择直接到芯片、单相浸入式还是两相浸入式,从空气冷却到液体冷却都是一项战略性投资,其回报包括更低的运营成本、更高的计算密度和更好的可持续发展指标。随着数据中心努力实现碳中和及净零目标,液体冷却不仅比空气冷却更好,而且是唯一可扩展的途径。.

















