数据中心冷却挑战以及如何解决这些挑战

服务器 数据中心
正确冷却计算硬件一直是一项挑战,但当只有某些机柜比其他机柜更热时,这就变得更加困难,特别是在仍在运行 20 年旧冷却设备的传统数据中心。 数据中心存在常见的冷却挑战,但也有确保这些挑战不会妨碍高效冷却的方法。

IT设备会产生热量,并且随着其容量的增加,产生的热量也会更多。 一些组织缩小了数据中心的物理尺寸,以将更多的空间放入机柜中。 即使是较小的数据中心现在也能看到 10 年前从未想象过的热密度。

正确冷却计算硬件一直是一项挑战,但当只有某些机柜比其他机柜更热时,这就变得更加困难,特别是在仍在运行 20 年旧冷却设备的传统数据中心。 数据中心存在常见的冷却挑战,但也有确保这些挑战不会妨碍高效冷却的方法。

谨防冷却空气流失

首先,优化您的冷却系统,以充分利用您所拥有的资源。 如果可以的话,请遵循 ASHRAE TC 9.9 指南作为指导,然后寻找其他方面的改进。 如果现有设备仍能完成工作,则不要投资新设备。 让我们从最大的挑战开始:现有的高架地板冷却。

清理地板下的空间,以便空调能够畅通无阻地输送空气。 这是一个多步骤的过程,但可以产生惊人的变化。 重新对齐、紧固和重新调平地板,并密封所有开口,以确保最大限度地减少冷空气的浪费。 好的产品可以弥补现有电缆和管道周围的间隙。 产生冷空气的成本很高,因此通过漏水的地板浪费冷空气不仅成本高昂,而且会降低冷却效率。

确保高效的数据中心空气流通

了解气流瓦片,并平衡数据中心的气流。在25%的开放瓷砖上安装一个完全开放的可调节阻尼器,其有效开放面积仅为16%,因此可以考虑安装无阻尼瓷砖。此外,63%的开放式炉排瓷砖有助于在较高的加热柜前使用,但也可以降低地板下空气对附近瓷砖的压力。它们中的太多会使地板上的其他部分空气不足。

如果使用得当,风扇驱动的瓷砖可以解决问题。风扇取想要的空气,所以可能留给其他柜子的空气很少。装有温控风扇的瓷砖会有所帮助。但是它们很贵,组织可能需要大量的它们来平衡一个房间。

采取措施确保冷却空气充足

对于持续存在的问题或非活动地板房间,有一些方法可以补充特定区域的冷却,但它们都面临挑战。

添加行内冷却器需要重新布置机柜。 前门或后门预冷却器或后冷却器可以减少热负荷。 但两者都需要管道和冷冻水或制冷剂冷却源。 然而,这些比添加或更换大型机房空调或机房空气处理器更有效,而且也更便宜。 简单地添加空调,尤其是地板下系统,可能会损害冷却效果,除非专家使用计算流体动力学气流模型优化气流设计。

通道封闭是确保冷却空气足以调节设备温度的另一种选择。 这样做有两个重大决定。

1、完全或部分遏制

在现有设施中很难实施完全遏制。 如果消防头位于交替通道中,柜上方的空气密封屏障将阻止喷水器或气体排放到达相邻通道。 有以下三种选择:

安装部分密封装置。 在某些情况下,封闭过道末端(但不封闭柜子上方)几乎与完全封闭一样有效。

添加消防头和传感器。 这是最好的选择,但价格昂贵,并且可能对正在运行的数据中心造成破坏。

考虑在发生火灾时自动移除安全屏障的产品。 不幸的是,其中大多数不符合国家消防协会 76 标准,该标准是一项咨询标准,不可强制执行。 仅推荐真正合规的选项。

2、热通道或冷通道遏制

每种方法都有支持者,但内阁配置可能会决定。 冷通道遏制需要良好的空气平衡,并确保所有冷空气进入机柜。 但房间的其余部分很热——可能达到 100 华氏度(37.8 摄氏度)或更高。

热通道气流遏制更加节能,但需要有一条清晰的回风路径返回空调。 现有设施通常发现冷通道遏制装置更适合改造。

顶置冷却器可以有效地将冷空气直接输送到高热柜前,但它们需要大量的热负荷才能运行。 他们还使用难以在现有设施中安装的特殊管道。

监控冷却环境

最重要的是,安装良好的环境监控——数据中心基础设施管理软件——并在机柜上安装传感器。 现代智能配电装置使这一切变得简单。 根据真实数据调整冷却效果,而不仅仅是根据某个区域的感觉。 良好的数据使组织能够在接近 ASHRAE 散热指南的顶部(IT 设备入口温度为 27 摄氏度或 80.6 华氏度)的情况下运行,使用更少的冷却能源,但也能从冷却装置中获得更多的容量。

自冷机柜适用于只有少量机柜且包含高密度设备的数据中心。 它们很大并且可能是非冗余的。 如果冷却停止,门会打开以进入房间冷却,直到组织修复机柜系统。

全浸入式冷却将服务器运行在一桶非导电液体中,可以处理高热密度。 它们就像水平 42U 机柜,但它们的重量可能会给地板负载带来问题。 然而,对于全机架的高性能服务器来说,它们可能是最简单的解决方案。

有很多方法可以解决具有挑战性的冷却问题,但最大的挑战可能是决定选择哪种方法。 检查您的预算和设施要求,以确定解决常见冷却问题的最佳方法。

责任编辑:姜华 来源: 千家网
相关推荐

2011-03-02 14:34:54

NVIDIA工作站

2022-09-08 10:38:25

数据中心数据中心冷却

2012-07-23 09:43:05

数据中心运营能源

2023-03-29 10:54:22

数据中心液体冷却

2019-07-10 11:01:59

数据中心冷却技术

2018-08-03 13:02:03

数据中心液冷冷却

2015-10-26 09:30:26

数据中心冷却技术

2017-01-22 21:00:22

数据中心冷却系统散热

2024-02-27 17:38:13

数据中心冷却

2015-12-09 10:05:06

数据中心冷却技术

2017-11-22 10:17:11

绝热技术数据中心

2021-08-04 12:28:11

数据中心能源绿色挑战

2022-09-14 11:15:33

多云混合云云数据库

2012-11-21 11:32:23

数据中心绿色数据中心冷却设计

2023-09-15 14:20:13

数据中心

2021-02-10 10:41:04

人工智能数据中心AI

2018-05-08 05:58:19

数据中心冷却能源

2023-12-19 17:40:28

数据中心服务器绿色能源

2022-08-19 15:09:50

数据中心冷却技术工作原理

2022-08-17 10:14:17

数据中心能源消耗制冷
点赞
收藏

51CTO技术栈公众号