数据中心采用自然制冷技术需注意的十一件事

服务器 数据中心 网络
日前,致力于提高数据中心能效的非盈利组织绿色网格发表了一些有意思的有关数据中心自然制冷技术的调查结果。调查结果显示,一半的受访者正在采用自然制冷技术节省能源和成本,25%的受访者表示会在将来考虑采用这个技术。

致力于提高数据中心能效的非盈利组织绿色网格发表了一些有意思的有关数据中心自然制冷技术的调查结果(调查的大部分数据中心位于美国)。

[[129038]]

调查结果显示,一半的受访者正在采用自然制冷技术节省能源和成本,25%的受访者表示会在将来考虑采用这个技术。自然制冷技术会得到更广泛的应用,环境会得到进一步的改善么?然而,事实未必如此,此项调查的某些结论让人有些吃惊:采用了自然制冷技术之后的PUE值和不采用自然制冷技术的PUE值差别不大。

如果仔细分析一下相关数据,我们就会发现那些认为采用自然制冷技术并不会明显降低PUE的人未必要求太为苛刻了:根据调查结果,采用自然制冷技术的数据中心的PUE均值为1.56,而没有采用自然制冷技术的数据中心的PUE值为1.83。这个区别也可让这些数据中心在使用寿命期间节省几百万英镑的电力能耗成本,并减少数千吨的碳排放量。

这项调查也显示,不愿采用自然制冷技术的一个主要原因就是改造现有数据中心系统的成本过高。最近,我们将旧的机房空调(CRAC)系统替换为Stulz的自然制冷系统,这让我们无论是在自然制冷系统改造方面,还是尽可能节省使用寿命期间的能耗方面,都获得了很大的收益:

采用自然制冷技术,需要注意以下几点:

1. 了解气候状况,气温适中最好。虽然当前大家对在斯堪的纳维亚和冰岛新建数据中心很感兴趣,但是需要注意的一点就是,极端寒冷的天气可能需要加热从外面进入数据中心的空气。我们最近发现,在极为寒冷的天气里,自然制冷系统增加而非减少了能耗。

2. 了解设备的使用寿命,并不断对它们进行有效地管理;了解管理和维护现有系统的总体拥有成本。虽然短期来看,“重新构建”现有系统并不会马上获得回报,但是从长期来看,它将变得越来越有吸引力,随着IT设备的功率密度和电力能耗的不断增加,尤为如此。

3. 做好数据中心最基本的事情:如果存在大量气流泄露或穿孔瓷砖放置不当的问题,花大量资金来替换空调系统是没有意义的。

4. 考虑在数据中心部署模块化自然制冷解决方案来补充现有的制冷功能。如果空间不是问题的话,将现有的CRAC系统留作夏天使用,并在旁边添加一个自然制冷解决方案不妨是非常务实的做法。新老系统的控制可能是一个问题;简单的方法就是为老一点的单元设备设定更高的值。

5. 理解数据中心现在和未来的不同的IT负载和功率密度,特别是数据中心不同厅或套间的IT负载和功率密度,并基于此相应配置制冷资源。这可以减少未来需要以更高成本重新访问新系统的风险。

6. 购买一个带有变速驱动器的制冷系统。我们的系统安装有可以变速的电子整流风扇,可在需要的情况下,将速度降低到最小。根据电力输入是风扇速度三次方的风扇规律,风扇速度任何幅度的减少都会大大减少机房空调单元的(CRAC)电力输入。将风扇的速度减半,电力输入将减小至原来的八分之一。

7. 实现对自然制冷方法的最大化使用,保证在外部气温允许的条件下,尽可能地在全年采用自然制冷方法,并设定使用的目标;每周或每月测量自然制冷方法的使用情况,并激励数据中心的管理者们努力实现这些目标,可对达成目标者给予经济上的激励。

8. IT设备供应商在提高设备的运营温度范围方面取得了很大的进展。在升级IT设备的时候,通过确保对IT设备的运营温度范围的理解,形成全面的数据中心能耗观点。要最大化提高数据中心能效,就需要努力将IT设备的运营参数与自然制冷系统整合起来。

9. 管理和监控气流——部署通道封装等。这提高了回风的温度,并允许将送风温度提高几度,这些都可以帮助提高能效,并延长自然制冷的运行时间。

10. 测量、监控和维护:需要不断地检测PUE值及温度设定值等,以确保数据中心的各个设备能够按照应有的水平运营。不要等到电力账单出来的时候,才来测定PUE值。

11. 总而言之,自然制冷技术得到了越多越广泛的采用。它可以大大减少成本,并且减少环境污染。然而,像其他技术一样,需要执行和使用得当,才能够节省尽可能多的成本。

责任编辑:林琳 来源: DCD
相关推荐

2015-11-17 10:32:14

数据中心制冷技术

2016-10-28 16:18:25

数据中心制冷冷热通道隔离

2009-07-29 17:38:15

数据中心冷却服务器

2010-08-04 17:10:39

Google数据中心冷却

2015-07-28 16:01:41

数据中心制冷技术

2021-02-24 10:52:10

数据中心制冷能源

2014-04-14 15:10:52

2016-10-17 14:29:01

数据中心恒温恒湿“智”冷

2012-10-31 09:20:45

数据中心制冷PUE

2011-10-12 16:28:33

数据中心制冷CRAC

2015-09-09 10:02:40

阿里云数据中心

2010-09-02 10:21:29

数据中心制冷绿色节能制冷与耗能

2012-05-09 10:38:00

免费制冷数据中心

2015-11-25 11:16:53

克莱门特捷联数据中心制冷

2015-06-09 11:12:11

数据中心冷却塔

2010-06-28 17:30:34

数据中心制冷风冷液冷

2020-09-11 14:35:12

数据中心

2015-11-13 11:15:40

SELinuxFedoraLinux

2020-01-10 14:56:54

存储技术容器

2012-04-01 09:27:13

谷歌数据中心
点赞
收藏

51CTO技术栈公众号