天气热 教你如何为数据中心“祛暑”

服务器 数据中心
刀片服务器的设计特点是在狭小的空间中安装大量的服务器,为了防止在密度如此之高的服务器群中出现过热现象,刀片服务器都采用了低功耗处理器。当越来越多的带双处理器和四处理器的刀片式服务系统大量出现的时候,系统的散热问题也提出了挑战。

从新一代数据中心的角度来讲,建立更灵活、更绿色、更高可扩展性的刀片服务器方案,是用户们所关注的目标。由于刀片的高计算密度、灵活管理等特性,使得刀片服务器尤其适用于计算密集型的企业应用,比如说适合以集群方式部署成HPC应用,在这一点上,刀片服务器有着机架式不可比拟的优势。

[[14318]]

但随之而来的问题是,刀片服务器面临着功耗和散热的难题。刀片服务器的设计特点是在狭小的空间中安装大量的服务器,为了防止在密度如此之高的服务器群中出现过热现象,刀片服务器都采用了低功耗处理器。当越来越多的带双处理器和四处理器的刀片式服务系统大量出现的时候,系统的散热问题也提出了挑战,并且在保证刀片系统处理能力的前提下,系统电热量一般无法大幅度降低,但系统的散热性能可以得到提高,这也就是为何机房冷似冰窟,而刀片机柜仍然高温不退的原因。

数据中心负载平衡系统

数据中心所消耗的电力中有三分之一是要用来维持一个强大的散热系统保证那些服务器不会过热,针对这个能耗问题,佐治亚理工大学(GeorgiaTech)的研究员提出了一种高效的数据中心散热系统——面向散热控制的数据中心负载平衡系统。随着不同任务的到达,每台服务器的散热量也在不断变化,新的负载平衡系统可以自动的把非关键性的任务分配到当前散热量相对较小的服务器运行,以免造成数据中心局部过热。经过实验,新的散热系统可以为整个数据中心节约大概15%的能耗。#p#

冷却策略的方法

1、 分散负载:为整个机房提供机柜负载平均值,提供电力和散热的能力,同时将负载超过平均值的机柜中的负载分散到多个机柜中。

这是在今天的数据中心采用高密度设备最常用的解决方案。幸运的是,1U服务器和刀片服务器不需要同时安装在同一个机柜中,可以分散配置在多个机柜中。通过将设备分散安装在多个机柜中,任何一个机柜都可以不超出设计的功率密度,因此散热性能是可预测的。

请注意在多个机柜中分散配置设备会使机柜内有相当大的未被利用的垂直空间。必须用隔板封填充这些空间,防止散热性能降低。

2.基于规则的散热能力转借:为整个机房提供机柜负载平均值,提供电力和散热的能力,通过采用一些规则允许高密度机柜借用邻近的利用率高的冷却能力。

这种解决方案在实践中经常被采用但很少有文字记录。这种方法利用了这样一个事实,一些机柜的功耗能低于设计的平均值。散热能力和回流能力利用率不高的机柜的散热能力可以让附近的其它机柜使用。不要让高密度机柜相互挨在一起“这样的简单规则就会起到一些有益的效果。

这种规则适用于新设备的应用,根据这种规则,紧邻的几个机柜未被充分利用的冷却能力可以用于对一个机柜的设备进行冷却,这就使得该机柜的功率密度峰值可以超过房间平均散热功率值。在一般的数据中心中,这是一种非常有效的应用高密度机柜的方法,因此经常会有相邻机柜的散热能力未被充分利用的情况。

3.辅助散热:为整个机房提供机柜负载平均值,提供电力和散热的能力,使用辅助散热设备为功率密度超过机柜设计的平均值的机柜提供所需的散热能力。

通常这种方案需要事先对安装进行规划,以便在需要的时间和地点利用辅助散热设备。房间已经按这种方法进行规划时,可以用多种方法对机柜进行辅助散热。这些方法包括:

(1)安装特制的(栅格式)地板砖或风扇增强CRAC对机柜的冷空气供应。

(2)安装特制的回流管理或风扇从机柜中排出热空气,使机器排出的热空气回流到CRAC。

(3)安装专门的机柜或机架式散热设备直接为机柜提供所需的散热能力。

4、设定专门的高密度区:为整个机房提供机柜负载平均值,提供电力和散热的能力,在房间内设定一个有限的专门的区域提供强散热能力,将高密度机柜限制在这一区域内。

在采用这种方法前需要对把高密度机柜隔离到一个特定区域的能力有所了解,以达到最佳的空间利用率。不幸的是,对高密度机柜部分的事先了解通常很难做到。因此,许多用户无法采用这种方案。

数据中心面临的由刀片服务器带来的局部过热问题不可小视。除了以上针对高热密度的解决方案外,在数据中心建设方面,降低能耗仍是业界亟需解决的问题。#p#

选择节能型的机房空调设备

在一个典型的数据中心中,IT设备占到耗能比例的30%,空调系统(包括冷水机、加湿器和机房空调)消耗了45%的电能,数据中心空调能耗情况在建设绿色数据中心中具有几乎“半数的话语权”。

如果企业在将自己的业务全部“搬家”到IT系统之上,而没有对电力消耗实施良好的规划与管理的话,信息化的速度越快,企业面临能源危机的速度也许就会越快,今天昂贵投资的IT系统,明天可能就会变成“金手铐”,因此,搭建一个绿色数据中心不仅仅是停留在口号上那么简单,在经济下滑周期内,对于企业的生存也有着至关重要的作用,而空调制冷又是解决这个问题的关键之所在。

机房空调设备在设计之初就应该选用节能部件。机房空调设备的能耗主要由五部分组成:压缩机能耗、加热器能耗、加湿器能耗、冷凝风机能耗、蒸发风机能耗。其中压缩机能耗最高,采用高效节能的涡旋压缩机比采用普通压缩机节能约30%,且使用寿命更长,故障率更低。另外,风机的能耗虽然没有压缩机高,但是风机是空调中运行时间最长的。从长远来看,风机的所“贡献”的能耗并不比压缩机小,采用高科技的变风量风机,在满足散热需求的前提下确保风机能耗最低。#p#

改变数据中心的控制温度

除了通过合理提高空调机工作温度来降低数据中心温度以外,从现实角度讲,国内的用户可以考虑从改善气流组织的方面入手来提高空调机的工作温度。传统的气流组织方式,都是通过冷却环境来冷却IT设备,整个数据中心类似于一个冷库,很多没有IT设备,不需要冷却的地方也冷却了,等于额外付出了冷量,这样的气流组织方式是不经济的。而且由于热负荷分布不均匀,还会出现局部过冷或过热现象,影响主设备的正常工作。

另外,由于冷热气流混合,部分冷空气短路,空调系统的冷量利用率很低,甚至不到50%,造成了电能的极大浪费。就目前情况来看,改变数据中心的控制温度是最有效的节能措施之一。

【编辑推荐】

  1. 太热啦!从网络恶搞到机房散热
  2. 炎炎盛夏 数据中心着火了怎么办?
  3. 为啥谷歌数据中心温度高?

 

责任编辑:景琦 来源: 机房360
相关推荐

2020-05-22 17:35:56

数据中心天气技术

2015-07-07 10:12:52

数据中心闪存

2015-11-24 10:16:01

数据中心极寒天气

2010-09-27 09:45:34

数据中心光纤

2011-11-09 13:10:50

数据中心选址谷歌Facebook

2018-11-29 11:21:09

数据中心数据中心互连DCI

2022-08-05 13:38:00

数据中心飓风团队

2023-03-16 08:20:30

数据中心

2022-10-19 15:00:16

2010-09-26 14:39:57

数据中心机架服务器

2023-03-16 14:17:05

数据中心IT

2021-07-05 14:04:52

数据中心规模网络

2012-05-10 10:16:10

电力数据中心热控制

2010-06-13 10:07:10

数据中心电力

2020-11-16 11:01:03

数据中心工具技术

2013-03-06 14:40:22

数据中心

2020-06-11 09:32:39

数据中心IT技术

2023-03-07 15:35:36

PDU数据中心

2024-04-15 11:25:41

数据中心人工智能能源消耗

2015-03-06 09:38:54

点赞
收藏

51CTO技术栈公众号