国外数据中心节能——“冰球”治理法

服务器 数据中心
数据中心的绿色化已经成为整个IT行业最关注的核心问题了,那么如何能够做到绿色IT呢?从制冷角度讲,还有很多新鲜招数,例如冰球治理法。

当我们领略菲尼克斯市炎热而干燥的沙漠气候时,绿色通常不是映入我们脑海的第一种颜色,毕竟菲尼克斯最近的最高温度达到了109华氏度。但是I/O Data Center却真的在这里建造了一座占地18万平方英尺的商用数据中心,汇集了各种采用创新环保技术设计的高能效设备。这些创新设计从服务器机架到不同寻常的空气制冷系统无不涉及。

绿色IT—— “冰球”

然后就要说到冰球了--这种比垒球大不了多少的充满冷水的塑料球体--I/O公司正在用这种物体来填充空调制冷系统。来自圣地亚哥Cryogel公司的冰球热存储系统估计是I/O公司使用的最酷的技术。

在I/O公司菲尼克斯数据中心的设备里,冰球漂浮在充满乙二醇溶液的四个巨型大桶中,可以将温度冷却到22度。这种溶液从数百个冰球周围的制冷器中抽出来,在晚间用电低谷时段对溶液进行冷冻。白天,系统再通过热交换器将乙二醇溶液注入到冰球周围,为数据中心提供冷空气。这样能减少白天用电高峰时段运行制冷器的需求。

这种系统并不能节约任何能源--最多是个零和游戏--但是它能省钱。通过将用电从白天转移到夜间,I/O公司每千瓦大概能节约1250美元,Cryogel公司总裁维克托.奥特这样说道(I/O公司并没有对系统能节约多少金钱做出估算)。

奥特宣称这项技术要更加的环保,因为为了满足需求,效用发电机在白天的高峰时段要运行更加繁重的工作,产生更多的温室气体。奥特表示"这些系统在夜间为了发电所消耗的燃料要比白天少得多。夜间空间也要更加凉爽,这样效用发电机运行起来就更加高效"。

不过后面这段声明在惠普公司关键设备服务事业部副总裁兼总经理彼得.克鲁斯眼里可能有点言过其词(惠普公司关键设备服务事业部负责设计数据中心,但是他们并没有介入I/O菲尼克斯数据中心设备的设计和构建)。#p#

为什么选择菲尼克斯?

I/O公司菲尼克斯数据中心等所有的项目阶段都完全构建完成,要满足制冷需要最高需要消耗40兆瓦的电力,那么为什么要选择菲尼克斯这样的沙漠城市来建造数据中心呢?负责设计大型数据中心的Megawatt Consulting公司总裁兼首席能效官KC.马尔表示"有大量用户都数据中心市场向菲尼克斯转移。选择这里会有一些合理的原因。但是我是从能源使用总量的角度来提出这种疑问的"。

I/O公司副总裁詹森.费雷声明说"外部的温度与内部的运转毫无关联"。举例来说,干燥的沙漠气候的一个好处是,它本身就是能效蒸发冷却技术。

但是对于节约装置和蒸汽制冷器这样的制冷技术所能做的就存在限制了,这些制冷技术在这种夏天温度可以达到120华氏度甚至更高的环境中就需要依赖外部的空气了。在一天结束时,尽管使用这种节能技术,你仍然需要为基础架构制冷花费大量的金钱。

不过I/O公司的用户BMC软件公司最初并没有选择使用I/O菲尼克斯数据中心设备,因为他们开始对绿色技术比较感兴趣。位于休斯顿的BMC公司IT基础架构和全球运作副总裁Mahendra Durai表示,选择菲尼克斯一个非常关键的原因是:由于最近发生的飓风,管理部门希望将公司的初级业务系统从休斯顿迁移出去。

Durai表示"菲尼克斯是美国少数几个极小会受自然灾害影响的区域之一。BMC公司的计划需要得到检验的五星级领域和大量可以扩展他们目前配置的空间。I/O菲尼克斯数据中心对环保的关注是令人满意的,但是目前仅在他们优先考虑的选择中排名第四。

使用Cryogel公司冰球构建的热存储系统每吨小时的制冷费用约为60美元,三到五年的时间里就能得到投资回报。这对于一些企业来说可能太长,但是投资回报率不是大部分数据中心判断使用何种技术的首要原因。

但这么做最大的障碍是需要需要巨大的容器来将冰球安置在正确的溶液里--即可以是压力舱,也可以是大气桶。这就需要占用大量的空间,这对于大部分数据中心都是个问题。

举例来说,在I/O公司里,Cryogel公司的冰球热存储系统需要四个钢制的压力舱,每个压力舱的尺寸为直径10英尺,高度22英尺。I/O公司有大量的空间来作为制冷设备的容身之地,但是多数数据中心都没有这种空间。奥德表示"通常对大量空间的需求已经超过了对价格的质疑"。

克鲁斯表示,如果空间不是问题的话,他青睐使用热存储技术"冰存储是个奇异的想法。它使得电力需求曲线变得平缓并节约了不少钱"。

但是数据中心使用热存储系统比较稀少的另一个原因是:对可靠性的担忧。

白天当系统循环来自冰球的冷却水时,数据中心的制冷器关闭。制冷器需要花费半小时到1小时的时间来重新启动并进行全速运行状态。克鲁斯表示"如果热存储系统出现故障,数据中心在这段时期里将没有制冷可用。在制冷器恢复的这段时期里,由于系统过热你不得不关闭整个数据中心"。

不过奥德表示,热存储系统在某些工业建筑物中使用已经超过20年的历史,是经过事实检验的技术。

克鲁斯也同意这种说法。他表示设计得当的冰球系统是非常可靠的。"我们拉斯维加斯的数据中心就采用的这种制冷技术,事实证明非常成功"。

#p#

整个建筑的重复利用

I/O公司菲尼克斯数据中心的环保人士的视野不仅局限于占地538000平方英尺的建筑物制冷系统。为了容纳这些新的设备,协作服务提供商对之前的水灌注车间进行了循环再利用。在2009年6月完工的创新项目第一阶段,I/O公司先期开发了180000平方英尺的面积,采用升高的地板,空调功率最高可达为26兆瓦。第二阶段,公司正在开发另外180000平方英尺的数据中心面积,空调功率为20兆瓦;二期项目有望在11月份完成。I/O公司还在建筑物中构建了80000平方英尺的办公场所。

BMC软件公司租赁了数据中心里320千瓦的能力,公司的IT基础架构和全球运作副总裁Mahendra Durai表示"I/O菲尼克斯数据中心的独特之处是建筑物中有一个水灌注车间,将用现有投资推动绿色环保的收益"。(I/O菲尼克斯数据中心最大的用户拒绝透露他们公司的名字,目前这家公司租赁了5兆瓦来为他们美国的数据中心提供能源--大约占到总容量的25%)。

在提及能效数据中心和绿色技术的应用时,I/O的名言是越大越好。George Slessman的首席执行官表示"大规模数据中心可以实现绿色技术的规模经济最大化"。

I/O菲尼克斯数据中心节约能源更具创新的方式之一是通过增加更多的计算机空间空气调节器。计算机空间空气调节器使用的是变速风扇, 将空调冷风分不到更多的空气调节器中,所有的风扇都能运行的更加缓慢。

这种算法看起来有点含糊,但确是切实可行的,原因是风扇的能耗与速度的立方成正比的,将风扇速度放慢一半就能相应的减少能耗,克鲁斯表示。因此降低所有风扇的速度来节省能源比通过运行更多的风扇来密闭所消耗的能源要更有效。

I/O公司还通过使用蒸发制冷系统来利用干燥的沙漠空气。克鲁斯表示"这是制冷领域的大势所趋。蒸发制冷是非常有效的"。#p#

未来的计划

I/O公司还为用户提供能效技术。这些技术包括高效的密封机架,能将冷空气直接从抬高的地板传送到机架和每层地板顶部的空气交换空间里,经设备与空间空气完全隔离开来。I/O公司的副总裁詹森.费雷表示,这种机架最高可以对32千瓦的空间进行制冷。

数据中心还使用超声波湿度调节器,I/O公司宣称这样能比传统产生蒸汽的制冷单元的发热要少,最高可以节省93%的能源。

I/O公司计划制造他们自己的绿色能源。数据中心构建计划的二期就要安装综合的散热和能源系统,将为数据中心制冷提供冷却水并发电。

I/O公司还计划在屋顶上安装4.5兆瓦的光电仪表板。产生的能源将被用于减少白天栅格所消耗的能源,这样高峰时段的能效就更高了。

"综合的散热和能源系统在小规模数据中心里安装的意义不大,但是在不间断电源达到40兆瓦或者50兆瓦的大型数据中心里却是很有用处的"I/O公司的Slessman表示。

不过光电仪表板受到的质疑更多。目前I/O公司已经开始着手设计,费雷表示公司迟迟没有采购仪表板的原因是价格下跌的太快了。费雷表示"我们一直在等待价格趋于稳定"。

#p#

环保的数据中心

但是目前的光电仪表板每平方英尺最高仅消耗16瓦的能源。甚至将一期项目中数据中心的能源需求降低到了20兆瓦,作为放在栅格后面的一种补充电源,光电仪表板运行良好。但是作为一种可持续电源就不够稳定了,即使是在夏天的菲尼克斯。克鲁斯表示"你最好使用其他的方法。燃料单元也能更加有效"。但是如果太阳能供电是不切实际的,那么它倒是一种优势。

I/O的菲尼克斯数据中心的绿色计划还有很多。Slessman表示,I/O公司希望到2011年中旬能获得能源暨环境设计领先者(简称LEED)的银牌认证,公司正在致力于推动少数几家数据中心来争取来自Uptime Institute的五星认证(可用性达到99.995%)。

Slessman表示,I/O公司对菲尼克斯数据中心的终极目标是"成为北美市场上获得五星和LEED认证的唯一一家商用协作服务提供商"。

【编辑推荐】

  1. 淘汰空调?空气节能器为数据中心降温
  2. DELL:主流刀片服务器谁最节能?
  3. 没有制冷装置!Google新数据中心“自然冷却”

 

责任编辑:景琦 来源: 服务器在线
相关推荐

2012-11-21 11:32:23

数据中心绿色数据中心冷却设计

2015-11-10 16:13:22

数据中心节能

2013-05-06 09:52:52

绿色节能

2016-02-15 10:24:51

数据中心

2015-08-19 10:11:53

数据中心节能高温

2015-06-25 10:46:23

数据中心节能

2010-05-25 12:22:20

数据中心综合布线

2009-06-30 19:16:05

数据中心节能虚拟化

2016-10-20 23:47:21

数据中心节能

2017-10-20 14:37:44

数据中心软件节能

2010-01-25 16:49:27

艾默生网络能源

2013-03-06 14:40:22

数据中心

2013-05-10 10:10:29

数据中心机房风冷却

2021-01-21 16:28:04

AI人工智能数据中心

2022-07-06 12:44:15

数据中心智慧建筑智慧城市

2012-05-09 10:38:00

免费制冷数据中心

2015-11-25 11:16:53

克莱门特捷联数据中心制冷

2011-03-31 14:53:13

数据中心节能

2015-06-09 11:12:11

数据中心冷却塔
点赞
收藏

51CTO技术栈公众号