数据中心液冷方案对连接器方案提出挑战
数据中心采用多种方法进行冷却,保证其信息与通信技术设备的正常功能,包括传统的空气冷却和较新的浸没式冷却方法。

空气冷却系统一直是信息通信技术(ICT)设备降温的首选方案。这类系统通常配备冷热通道,提升效率,对于采用传统空气冷却的数据中心而言,其操作简便且成本效益显著。然而,对于未来超大规模数据中心设施中的诸多新型应用场景,空气冷却并非最佳选择。

生成式AI和HPC应用中的GPU加速服务器产生的热量远超传统计算负载。空气冷却根本无法满足需求。鉴于此,越来越多的数据中心转向基于液体的冷却方法,如直接芯片液体冷却和浸没冷却。
数据中心工程师无论采用何种散热方案,都需要稳定的电力供应。风冷系统需配备能在热通道环境中耐受高温的电源供应单元(PSU)和电源分配单元(PDU)连接器。而浸没式冷却则需要能在电介质液体中安全运行的组件。
什么是数据中心的传统空气冷却?
对于机架密度低于25千瓦的小型或中型数据中心,空气冷却仍是主流的热管理方案。该方案通过传统空调技术与气流调控策略,有效控制信息通信设备温度,避免过热问题。为提升这类数据中心的能效,可采用热通道/冷通道布局方案,并配置通道隔离系统。
热/冷通道配置由IBM于1992年首创,是数据中心节能领域最古老的技术方案之一。该配置采用交错排列的服务器机架布局:冷通道对应机架前部的服务器排,热通道则与服务器后部对齐。计算机房空调系统(CRAC)产生的冷空气通过架空地板输送至冷通道,经服务器前部吸入进行冷却。随后,热废气被排入热通道,最终通过天花板通风口返回CRAC机组,从而完成整个循环。
数据中心空气冷却最适合使用哪些连接器?
在信息通信技术(ICT)设计中,电源分配单元(PDU)和电源供应单元(PSU)连接器是关键基础组件。在空气冷却型冷热通道数据中心工作的工程师,选择连接器时需特别注意特殊要求。这些连接器和电源线对于实现PDU与交换机、服务器、存储设备等设备的连接至关重要。
在配备冷热通道的风冷环境中,设计工程师需重点考量连接器在高温条件下的性能表现。热通道环境温度可达40-50℃,电流流动产生的热量与接触电阻会导致连接器温度飙升至70℃以上。但需注意的是,标准IEC C13/C14规格的电器耦合器通常仅能承受70℃的最高工作温度。

工程师可选用热量温度等级高于标准70°C的互连解决方案,从而在高温环境下为电流传导提供更大裕度。部分连接器甚至具备高达105°C的热量温度等级,确保负载工况下电力传输的可靠性。
液冷与浸没式冷却:日益增长的高负载数据中心解决方案
随着数据中心工作负载日益加重,越来越多的超大规模数据中心设施开始采用浸没式冷却技术,作为传统风冷系统的高效替代方案。简而言之,液体冷却技术的核心原理是将信息通信设备浸入专用绝缘液体中,通过热对流实现热量吸收与转移。液体冷却设备产生的热量首先传递给液体,随后液体被引导至远离设备的区域,通过热交换器或液-液直接冷却等技术手段进行提取。最终,冷却后的液体重新返回浸没式冷却舱,从而完成整个循环过程。
数据中心的液体冷却类型
液体冷却方法有以下几种:
· 单相浸没冷却
这种方法中,ICT设备部分或完全浸没在一种介电液体中,该液体在整个液体冷却循环过程中保持液态。简单的水箱设计、与现成管道硬件的兼容性以及对多种介电液体的适应性,使得单相系统成为热门选择,尤其是在HPC数据中心中。
· 两相浸没冷却技术
这是一种更先进的冷却方案,其原理是将设备浸入介电液体中。该液体在沸腾成气态后,会经历相变过程,最终凝结为液态。这种双相系统可支持更高的功率密度,单个水箱的功率密度最高可达250-500千瓦。

另一种液体冷却方法是直接芯片冷却技术,通过冷板将冷却液直接输送至GPU等高温部件。该技术将冷板直接置于高热区域,实现高效热管理。直接芯片冷却系统可设计为单相或双相系统。
液冷数据中心最佳PDU/PSU连接器
浸没冷却技术的演进对连接器材料与耐久性提出了新要求。除需承受电应力与热应力外,浸没应用中的连接器还必须与所用介电液体化学相容。连接器外壳需抵抗介电液体的腐蚀性影响,确保即使完全或部分浸没时仍能长期保持完整性和可靠性。
随着液体冷却技术的持续进步,以及开放计算项目(Open Compute Project)行业努力催生的潜在液体冷却标准,连接器设计将持续演进,支持未来数据中心的发展。

数据中心冷却的未来
无论是采用风冷还是液冷方案,PDU/PSU连接器都是保障电力供应稳定高效的关键部件。在液冷数据中心中,工程师应选用能耐受电介质液体环境的耐用型连接器。对于存在热通道的环境,采用具备更高耐温等级的连接器更为合适,这样能为设备提供额外的温度余量,从而确保性能稳定。
广告
暂无评论