数据中心为数字世界发展注入活力
随着数据流量的持续增长,需要连接器解决方案来解决高密度数据中心的空间和热量管控。需要更大功率和更高速度的同时,优化热量和能源消耗是一个关键问题。
COVID-19 新冠病毒全球大流行戏剧性地改变了我们的生活、工作和联系方式。在全球范围内,面对面互动或工作正被新的数字互联网模式所取代。尽管在大流行之前数据持续增长,但当今由于物联网技术、电子商务、社交媒体、远程健康、互联网学习、视频流、游戏和人工智能的使用越来越多,全球个人、企业、组织、政府现在正在产生惊人的数据流量。由于新的应用技术迅速增加,每分钟都在进行数百万次的数字转换,全球需要更多的数据中心。
这种快速增长的数字流量正在推动全球数据领域指数级扩展。2018年,国际数据公司(IDC)预测,到2025年,数据使用将增长到175泽字节(zettabytes)。Sensor Tower的一份报告发现,2020年第一季度,仅全球手机使用的数据消费就增长了52%。
为了提高当前和未来的计算性能,专用集成电路(ASICS)、图形处理单元(GPU)、现场可编程门阵列(FGPA)和经典的中央处理单元(CPU)被大量应用。今天的数据中心包含数万到数十万台服务器,由交换机、路由器和冷却设备等组成。所有这些都需要大量电力。事实上,超大型数据中心的电力消耗从10兆瓦到70兆瓦不等。
密度增加,空间受限
在新冠病毒大流行之前,IDC报告说,全球每台服务器的能源消耗每年增长9%。在美国,数据中心的功耗预计每五年将增加一倍。然而,即使数据中心每平方英尺的功率密度在攀升,布置电源和关键输出的连接器空间却保持不变。
在数据中心的初期,服务器系统基础设施需要400W到600W电源,输入和输出(I/O),使用4到6个刀片,额定功率为30A。为了满足当今超大规模和电信环境的需求,电源制造商现在需要在同一空间的同时增加三倍的能力。解决方案需要包含6到8个动力叶片,每个叶片能够处理70A到80A,同时产生的温度上升不超过30°。因此,连接器公司面临着更大压力,需提供能够在同一空间安装原来三倍载流的电源I/O连接器。
数据中心的电力与家庭或企业属于同一电网。然而,美国的家庭通常采用220伏,但数据中心一般采用10kV,运行互联网的处理器需要大功率。
涵盖30-501U服务器的机架上电源通常成组供电。这些服务器越来越多地由机架级体系结构中的3个kW电源单元(PSU)供电。在电源架上集成电源,满足服务器内组件和机架内交换机的需求。
弄清楚如何在严格控制的空间内优化电源是一个挑战,同时要考虑由于功率密度增加所产生的散热问题。交流转换为直流过程自然产生热量,反之亦然。即使是在较小的数据中心也会如此,更不用说超大型数据中心。服务器、路由器、交换机和其它机架安装的数据中心组件都会产生热量。PSU印刷电路板(PCB),包括铜层、层厚度和路径,冷却部件所需的所有风扇等,也会可以产生热量。显然,没有一个连接器供应商希望他们的连接器作为散热器。然而,当通过PCB将热传递到连接器时,连接器将面对散热的评估。
尽量减少能源消耗和降低成本
能源成本对于任何规模的数据中心都是一个主要的支出,因此,面对计算需求的激增,将能源消耗降到最低也就不足为奇了。事实证明,成本效益高的供暖和制冷系统设计和实施对可持续性和市场竞争力至关重要。
空间和热的限制使为数据中心生态系统开发可行解决方案的挑战日益严峻,但潜在好处很值得付出努力。毕竟,最近研究结果表明,能源效率提高约7%,就可以节省数百万美元。
目前正在考虑多种方法。虽然它们能够实现改进,但大多数在规模或可靠性方面仍存在缺点。例如,一些制造商已经开始将通风口集成到机架外壳中。通风口通过允许热量逃逸来散热,但在高密度环境中却不够充分。铜合金材料的改进提高了电导率,但在增加电力需求方面仍然落后。接触器设计的改进有助于减轻电力损耗,但它们并不是满足高密度要求的可靠解决方案。此外,连接器设计人员现在面临触点间距减少的挑战。这造成了新的散热问题,并为数据中心电力挑战增加了另一层复杂性。
Molex 和其他行业领导者继续探索创新的解决方案,解决高密度数据中心的空间和热量限制的问题,为当今世界提供更重要和更科学的解决方案。
暂无评论