联系我们

预制集装箱数据中心:热设计如何降低 PUE

分享给

这本全面的指南深入探讨了以下地区所特有的热能挑战 预制集装箱数据中心, 所有这些都以行业标准、真实数据和工程最佳实践为后盾。.

什么是预制集装箱数据中心?

预制集装箱数据中心是一个完全集成、独立的数据中心模块,建在一个符合 ISO 标准的集装箱内(通常长 20 英尺或 40 英尺),其中容纳了所有关键的 IT 和基础设施组件。与模块化数据中心不同的是,集装箱数据中心是在受控的工厂环境中进行全面设计、集成和测试,然后再运往部署地点。.

主要组件包括高密度 IT 机架、UPS 系统、备用发电机、精密冷却装置、灭火系统、环境监控工具和线缆管理解决方案,所有这些都经过预先认证,符合 TIA-942 和 Uptime Institute Tier II/III 要求等行业标准。.

预制集装箱数据中心

这种工厂集成可确保一致性,将现场安装时间缩短至 7-14 天,使集装箱数据中心成为空间有限的城市地区、偏远工业场所、边缘计算地点和临时 IT 项目的理想选择。.

预制集装箱数据中心面临的关键热挑战

预制集装箱数据中心独特的设计和部署方案带来了传统数据中心所不具备的独特热挑战。这些挑战直接影响到 PUE、硬件可靠性和整体运行效率,使得热管理成为任何一次部署最关键的考虑因素。以下是根据行业数据和实际观察得出的三个核心热痛点:

有限的内部气流和空气混合

集装箱数据中心的钢制外壳结构紧凑,几乎没有优化气流的空间。如果不进行有意的设计,来自冷却装置的冷送风和来自服务器的热排风就会自由混合,从而将冷却效率降低 30% 或更多。这种空气混合迫使冷却系统更加努力地工作,使未经优化的设备的 PUE 达到 1.6-1.8,远远高于设计良好的 PCDC 的 1.2-1.3。.

严酷的户外环境暴露

它们大多部署在室外,面临极端的温度变化(从寒冷地区的 -40℃ 到炎热地区的 +55℃)、高湿度、灰尘甚至腐蚀性元素(在沿海或工业地区)。这些条件会给冷却系统带来压力,增加冷凝的风险(可能损坏 IT 硬件),并需要坚固的机箱设计来保持热稳定性。例如,冷却线圈上积聚的灰尘随着时间的推移会使传热效率降低 15-20%,从而进一步提高 PUE。.

高密度 IT 负载

现代集装箱数据中心越来越多地用于支持人工智能、机器学习和高性能计算(HPC)工作负载,这就需要高密度的 GPU/CPU 机架。这些机架每个机架的功率可达 20-50 千瓦,远远超出了传统风冷系统的能力。如果没有专门的散热解决方案,这些高负载会导致局部热点、服务器节流和意外停机,从而使企业每小时损失数千美元。.

经现场验证的预制集装箱数据中心热系统

为了应对集装箱数据中心独特的散热挑战,行业专家和制造商开发了三个分层的、经过现场测试的散热系统,可提供一致的、可验证的增效。这些解决方案符合 ASHRAE 2023 数据中心散热准则,并已在从电信到能源和医疗保健等多个行业的商业部署中得到验证。.

封闭通道隔离 + CFD 优化气流

封闭过道是风冷预制集装箱数据中心的基础热升级,因为它消除了冷热空气混合,并确保 100% 的冷却空气到达服务器入口。这种设计包括用物理隔板、带垫圈的机架门和天花板密封冷通道,为冷空气分配创造一个专用空间。为了进一步优化气流,在工厂设计过程中使用了计算流体动力学模拟来绘制气流模式图、识别潜在的热点,并定位冷却装置和机架,以实现最高效率。.

主要的工程规格包括 EC 变速风扇,可根据机架热负荷实时调整转速,在制冷需求较低时降低能耗。此外,还在隔离区安装了压力传感器,以监控压差,确保冷通道保持轻微的正压(通常为 5-10 帕),防止热空气渗入。该系统的改进效果显著:冷却能耗减少了 25-35%,PUE 从约 1.7 降至 1.4,且未作其他修改。该解决方案还符合 ASHRAE 推荐的 18-27℃ 服务器入口温度范围,在冷却效率和硬件可靠性之间实现了平衡。.

空气侧节约 + 氟泵双循环冷却

预制集装箱数据中心的最大优势之一是能够利用室外环境的免费冷却--这是传统室内数据中心通常无法充分利用的优势。空气侧节能与氟泵双循环冷却系统的搭配,最大限度地发挥了这种免费冷却的潜力,同时保持了集装箱数据中心即插即用的便携性(无需冷却水设备)。.

该系统的运行逻辑简单高效:当室外环境温度低于 21℃时,集装箱数据中心的冷却系统会吸入并过滤室外空气,直接用于冷却 IT 设备。当环境温度高于 21℃时,氟泵冷却系统启动,提供精确冷却。氟泵系统使用无毒、高效的制冷剂,能快速传递热量,无需大型冷却水回路。在温带地区,这种双循环方法每年可提供 3,000-4,500 小时的免费冷却时间,将总体 PUE 降低到 1.2-1.25。对于在气候较凉爽地区(如北欧或北美)部署集装箱数据中心的企业来说,与传统的风冷机组相比,该系统最多可降低 50% 的冷却成本。.

用于高密度人工智能工作负载的混合液体冷却系统

对于支持高密度人工智能、GPU 或 HPC 工作负载(25kW/机架或更高)的集装箱数据中心而言,空气冷却已达到其实际极限。混合液体冷却是在这些情况下保持热稳定性并实现行业领先 PUE 的唯一可靠解决方案。该系统结合了液冷和风冷的优点:液冷可处理大部分热负荷(高达 90%),而备用风冷系统可确保冗余并防止液冷系统出现故障。.

集装箱数据中心最常见的两种混合液体冷却架构是后门热交换器和机架内冷却剂分配装置。后门热交换器安装在 IT 机架的背面,用于捕捉热废气并将热量转移到液体冷却剂回路中。而机架内冷却液分配器则直接集成在机架内,将冷却液输送到服务器冷板或浸入式冷却系统。这两种架构都在工厂安装并经过测试,确保与集装箱数据中心的整体设计兼容。经验证,混合液体冷却的性能令人印象深刻:PUE 低至 1.05-1.15,与纯空气冷却相比,热排斥能力提高了 50%。该解决方案非常适合边缘人工智能部署、5G 核心网络和偏远的高性能计算站点,因为在这些地方建立定制的液体冷却设施是不切实际的,或者成本过高。.

对预制集装箱数据中心进行可行的热调整

即使安装了正确的散热系统,要实现并保持集装箱数据中心的最佳效率,适当的调整也是必不可少的。以下是一个可重复、可操作的 4 步工作流程,IT 和设备团队均可实施,并有明确的指标来跟踪进度和确保成功:

绘制热负荷图并优化机架布局

首先对集装箱数据中心的所有 IT 设备进行全面的热负荷评估。在每个机架上标注其功率密度(千瓦/机架),并将负载最高的机架放置在最靠近冷却装置出口的位置。这样可以最大限度地减少冷空气到达高热设备的距离,降低热点风险。例如,如果您有两个 40 千瓦的 GPU 机架,请将它们放在冷却装置出风口的正前方,以确保最大气流。.

密封所有漏气点

集装箱数据中心的外壳或密封系统中即使有微小的漏气,也会使冷却效率降低 5-10%。检查所有电缆入口、机架缝隙、门垫圈和天花板是否漏气。使用高质量的垫圈、密封胶和电缆管理套管堵塞这些缝隙。要特别注意电缆进入集装箱的地方,因为这些地方是常见的泄漏点。定期检查(室外部署每月一次)有助于在影响效率之前发现并修复新的泄漏点。.

设置智能风扇曲线

避免对冷却装置和服务器风扇使用固定的风扇转速,而是将风扇转速与实时温度数据挂钩。对于冷却装置,根据服务器入口温度(目标温度为 18-27℃)设置风扇曲线,而不是固定转速。对于服务器风扇,使用 BIOS 设置或远程管理工具,根据 CPU/GPU 温度调整风扇转速。这可确保风扇只使用所需的能量,从而降低总体功耗和 PUE。.

实施全天候监控和维护

部署全面的环境监控系统,全天候跟踪关键热指标,包括服务器入口/出口 delta-T(温差)、安全壳压力、冷却装置运行时间以及环境温度/湿度。设置异常值警报(例如,入口温度超过 27℃或安全壳压力低于 5 Pa),以便及早发现性能偏移。此外,还应安排定期维护:每 3-6 个月清洁一次冷却盘管和空气过滤器,检查液体冷却回路是否泄漏,每月测试备用冷却系统以确保冗余。.

热优化为何决定了预制集装箱数据中心的价值

热管理并不是预制集装箱数据中心的次要功能,而是将快速、便携式机柜转变为可靠、经济、长期基础设施解决方案的核心差异化因素。集装箱数据中心的部署速度、便携性和可扩展性只有在设备能够保持较低的 PUE、保护 IT 硬件并提供稳定的正常运行时间时才有价值。通过实施封闭式过道封闭、采用氟泵冷却的空气侧节能和混合液体冷却,并结合 4 步调整工作流程,企业可以在保留集装箱数据中心所有核心优势的同时,持续实现 1.15-1.3 的 PUE。.

对于优先考虑边缘计算、远程基础设施、人工智能工作负载或临时 IT 容量的团队来说,经过热优化的预制集装箱数据中心是当今最实用、最具成本效益的解决方案。它能提供跟上数字化转型所需的速度和灵活性,而优化的散热设计则能确保长期的可靠性和效率。.

关于作者

加文

Gavin 是一家专门从事数据中心配套设备的公司的运营经理。他精通数据中心专用不间断电源、精密空调和数据中心解决方案。他可以帮助您更好地了解这些产品以及如何选择不同的解决方案。.

相关帖子