电费决定一切 八大数据中心节能技术

服务器 数据中心
某些最有效的节能技术都需要大量的前端投资,需要花费数年才能获得投资回报。以下所列出的八大节能方式目前已经在真实的数据中心环境中进行了尝试和测验,被证明是切实有效的。

如今的数据中心管理者成天挣扎在如何在软件经济低迷导致的有限预算范围内满足竞争日趋激烈的市场上企业需求的漩涡中。他们在寻找降低企业运营成本的方法,目前数据中心运营成本中增长速度最快且所占比例***的就是服务器和制冷系统所消耗的能源支出(51CTO推荐阅读:潜入维基解密机房 更新中文视频+高清图)。

某些最有效的节能技术都需要大量的前端投资,需要花费数年才能获得投资回报。但是一些常常被忽略的技术却成本甚少,这些技术经常被忽略的原因是他们看起来不切实际或者过于激进。以下所列出的八大节能方式目前已经在真实的数据中心环境中进行了尝试和测验,被证明是切实有效的。有些你应用到生产环境中技术能立即得到投资回报;其他的技术可能需要资金投入,但是获得回报的速度要比传统的IT资金支出投资回报率要更快。

数据中心能效测量标准的圣器是能源利用率比率(简称PUI),较低的比率说明利用率更好,1.0是能源利用率的理想目标。能源利用率是数据中心电力成本总额与转化为有效计算任务的数量之间的对比值。2.0比率的常见价值含义意味着数据中心一台服务器测试时原来消耗的2瓦能源下降到了1瓦--损失就是能源被转化为了热量,继而需要能源通过传统的数据中心制冷系统来祛除这些热量。

从简单的测算标准来看,你必须这样看待和定义能源利用率——电效率的测算方法。这种测算方式没有把其他的能量源考虑在内,诸如周围的环境温度或者氢燃料单元,这些能量源中有很多都可以被用来降低整体能耗。以下介绍的技术可能或者不能降低你的可测量能源利用率,但是你可以通过审核每月的电费账单来更加简单的评估他们的有效性,无论如何这才是企业用户真正关心的问题。

你不会在本文中发现太阳能,风能或者氢能的介绍。这些可选能源在技术投入实际应用之前需要大量的投入,会让目前经济危机的背景下取得的成本节约优势大打折扣。相对比而言,以下的八项技术中没有一项需要比风扇和管道要更复杂的东西。

这八种技术如下

1.调高数据中心的温度
2.关闭没有使用的服务器
3.使用免费的外部空气进行制冷
4.使用数据中心热量来为办公区域制热
5.使用固态硬盘来运行高度活动状态的只读数据集
6.使用数据中心里的直流电
7.将热量导入地下
8.通过管道将热量排放到海中

#p#

调高数据中心的温度

节能最简单的方法就是你今天下午你可以马萨还能够付诸行动的:调高数据中心温度调节装置的温度。通常数据中心的温度会设定为68华氏度或者更低,这种温度从逻辑上能延长设备的寿命并让用户在制冷设备发生故障时有更多的时间做出反馈。

经验显示服务器硬件发生故障时,特别是硬盘故障时,确实会增加系统操作的温度。但是在最近今年里,IT经济穿越了一个重要的临界点:服务器运行成本目前一般都超过了采购成本。这可能会让保留硬件还不如削减运营成本更来得实际。

在去年召开的GreenNet大会上,谷歌公司能源负责人Bill Weihl介绍了谷歌提高数据中心温度的经验,Weihl称80华氏度作为一个新设定值是可以安全使用的,但数据中心需要满足一个简单的先决条件:尽可能将冷空气流和热空气流分开,如果需要的话,使用窗帘或者固体屏障。

虽然80华氏度是一种安全的温度升级,微软公司的经验显示你可以将温度调的更高。微软都柏林和爱尔兰的数据中心以"制冷不足"的模式运营,使用免费的外部空气制冷,服务器入口的温度约为95华氏度。但是请注意当你提高温度时,由于本身提高能耗所需的服务器风扇转速变得更高,所以会出现回报衰减。

#p#

关闭没有使用的服务器

虚拟化技术显示出整合未经使用的处理器,硬盘和内存后所获得节能优势。因此为什么不关闭整个服务器呢?这会提高与他们所消耗的能源成本相匹配的"企业灵活度"吗?如果你能发现服务器被关闭的实例,你就能实现这些服务器能耗的最小化,为零。但是你必须首先将反对者的意见考虑在内。

首先,大家通常认为由于压力都堆积在主板适配器之类的非域交换组件上,所以能量循环降低了服务器的寿命期望值。进而得出这样一个结论:在现实应用中,服务器是从日常通过频繁发生的能量循环(比如汽车和医疗设备)的那些设备中使用的同样组件来构建的。没有证据现实任何降低的MTBF(即平均故障间隔时间)作为能量循环服务器所能承受的一个结果。

第二个异议是服务器花费了太长的时间来启动。不过你通常可以通过关闭不必要的导入时间诊断工具来加快服务器启动的速度,从已经在运行的快照映像中直接导入和采用某些硬件中提供的热启动功能。

第三个异议是:如果我们必须重新启动一台服务器来适应强化负载,那么不管导入的速度有多快都是用户所不能等待的。不过大部分应用软件体系架构对于新用户来说都是陌生的,因为简化流程需求要更加缓慢,因此用户不知道他们正在等待服务器启动。应用软件确实达到了使用人数的局限,如果用户知道"我们启动更多的服务器来加快需求的响应"他们也许会愿意这么做。

#p#

使用免费的外部空气制冷

更高的数据中心温度能帮助用户更好的利用二级节能技术,这就是所谓的利用较低的外部空气温度作为冷空气源制冷的免费空气制冷方法,这种方式摒弃了昂贵的制冷器,微软在爱尔兰的数据中心采用的就是这种方式。如果你打算将温度维持在80华氏度,外部的空气温度为70华氏度,那么你可以将外部空气引入数据中心来保证内部空气的冷却。

实现这种效果所需的努力比节能方法一种提高数据中心温度这种权益之计要更加耗时耗力:你必须变更输送通道来引入外部空气,部署基本的安全措施--比如空气过滤器,湿气清除装置,防火档板和温度传感器,以此来确保外部空气不会破坏敏感的电子元件。

在有限的使用案例中,英特尔公司意识到使用免费的空气制冷降低了74%的能耗。服务器上安装两个制冷装置,一个采用传统的冷凝器来制冷,另一个使用冷凝器和安装大型粒子过滤器的外部空气结合的方式制冷,运行了10个月的时间。免费空气制冷系统能够在91%的时间范围内使用空气制冷。英特尔公司还在免费空气制冷的服务器内发现很厚的一层灰尘,需要加强对细粒杂质的过滤。你可能必须经常更换过滤器,因此清洁的,可重复使用的过滤器成本要考虑在内。

尽管积累了大量灰尘和让湿度发生了很大改变,但是英特尔公司发现免费空气制冷的服务器故障率并没有增多。如果推断数据中心耗能为10兆瓦,那么每年可节约的制冷成本将近300万美元,能减少7600加仑的用水,水资源在某些区域本身就是一种昂贵的商品。

#p#

数据中心热量供暖办公区域

可能你会对使用数据中心节约的热量来温暖办公区域存在疑问,这就像说你使用相对较冷的办公室空气来为数据中心制冷是一样的。在气候寒冷的区域,你可以收集所有可以保证人们温暖的热量并使用纯粹的外部空气来管理任何额外的制冷需求。

与免费的空气制冷不同,你不再需要现有的供暖系统;从定义上来看,当你暖和起来你就无需再进行供暖。不必再担心来自服务器和烟尘散发的化学污染。有害物质的当代限制公约要求服务器和数据中心不包含对环境有害的污染物,比如镉,铅,水银和多溴混合物等。

就免费空气制冷而言,你必须需要了解的就是暖通空调技术:风扇,输送管道和温度调节装置。你可能会发现你的数据中心会耗费更多的千卡来替换传统的供暖系统。IBM公司在Uitikon和瑞士的数据中心能够免费为市政游泳池供暖,节约的能源相当于为80个家庭供暖。TelecityGroup Paris甚至使用服务器浪费的热量来为恒温的温室供暖,并为气候变化研究提供参考资料。

重新配置你的熔炉系统可以不止是个短期计划,但是成本可能足够低廉,这样你在一年内或者更短的时间内就能有所回报。

#p#

使用固态硬盘来存储

由于固态硬盘加快了数据读取时间,降低了能耗并且热排放非常低,因此已经广泛应用于超便携式笔记本电脑,平板电脑和上网本。他们也被应用于服务器领域,但是截至到目前,固态硬盘的成本和可靠性还是影响用户进一步接受它的两个障碍。幸运的是,固态硬盘的价格在过去两年间有了大幅度的下降,使得固态硬盘成为数据中心快速节能的一大选择--因为用户可以将固态硬盘应用于适合的应用软件,只要应用得当,固态硬盘能大大缩减数据中心供电和制冷磁盘阵列的价格,能耗降低了大概50%,热散失也接近为零。

固态硬盘的一个问题就是读取操作的数量有限,目前适用于服务器存储的单级别设备数据写入数量约为500万。低成本的消费类多级别单元设备的存储容量要稍高一些,但是也只有单级别单元设备可承受能力的十分之一。

固态硬盘的好消息是你可以购买插入式可兼容驱动来替换现有的大能耗高散热的设备。为了快速的降低能耗,用固态硬盘替换大规模的初始化只读数据集,比如流视频档案等。你不会遭遇固态硬盘过热的问题,除了能降低能耗和制冷成本外,用户还将从中获取立竿见影的性能提升。

我们主张硬盘专门应用于服务器而不是桌面系统。这类硬盘通常有着多通道体系架构来提高输出/输出能力。最常见的是几倍每秒3GB传输速率的SATA 2.0。诸如更高端的SAS设备(比如日立/英特尔Ultrastar固态硬盘产品线)能实现每秒6GB的传输速率,存储容量***可以达到400GB。虽然固态硬盘设备存在着一些设计上的缺陷,但是这些硬盘主要应用于用BIOS密码和加密的桌面系统和笔记本驱动,不会涉及到服务器的存储设备。

***从开始阶段就花些精力来规划固态硬盘上循环监控的使用。英特尔公司和其他固态硬盘制造商可以提供分析工具来跟踪读取和写入循环,以及读取故障事故。固态硬盘能自动重新规划整个设备的读取,这个过程被称为负载平衡,还可以从错误中进行侦测和恢复。当系统发生真实的重大读取故障时,就是对硬盘更新换代的时候了。

#p#

在数据中心里使用直流电

确实直流电是个过去时。这种看似浮躁的能量源随着电力技术的兴起与衰落而定期周而复始。诱因也很简单:服务器内部使用的是直流电,因此直接给他们供电的能源应该可以通过消除服务器内部电源完成的交流电到直流电的转换实现节能。

直流电在本世纪初广受欢迎,因为这个时期的服务器电源只能保证数据中心的效率实现75%。但是发展到现在,电源的效率已经得到了改进,数据中心电源已经升级到了更加高效的208伏特的交流电。到2007年,直流电逐渐淡出了人们的视野。InfoWorld甚至将其列入2008年发布的“揭穿十大节能骗局”一文。之后到了2009年,直流电受益于高电压数据中心产品的推出,又重新强势回归。

在最早期的数据中心里,16000伏交流电的电源***转变为110伏的交流电,之后又发展到220伏交流电,***演变为当下服务器所使用的110伏交流电。由于不到100%的效率,每次转变都会浪费能源,损失的能源又作为热量散失了(这样就必须通过制冷来散热,这样就会导致更多的能源支出)。转换到208伏的交流电能消除一次转换,服务器内部的电源以95%的效率运行,就无法获到节能效果。

但是2009年新引进的数据中心设备将13000伏交流电公用电源直接转换为575伏直流电,可以直接被分配给机架,***渐缓式转换器将机架上的服务器能耗降低为48伏的交流电。每次转换都将效率提升为上一代交流电转换器技术的两倍,并且散热还越来越少。虽然厂商宣称将减少的供电和制冷成本合并后能达到***50%的节能效果,多数专家表示25%是个更加可信的数字。

这种基本的方法需要对新技术进行资金投入,但是所涉及的技术并不复杂并且被证明是比较可靠的。潜在的隐含成本就是48伏直流电分配所需的更加沉重的电缆铺设。正如朱尔定律所表明的,当电压越来越高时,随着安培数的增高,更低的电压就需要更重的导体来实现同样的供电效果。数据中心的另一个成本因素就是与交流电相比,更高的电压会随着距离下降(大约每100英尺下降20%)。这就是为什么48伏交流电转换是在机架而不是在公用电源上完成。

当然,转换为直流电要求你的服务器能够适用于48伏直流电电源。对某些服务器来说,转换为直流电是一种简单的电源交换。但以机箱为基础的服务器,比如刀片服务器转换起来可能更加便宜,因为很多服务器共享一个单独的电源。谷歌公司使用的是替换12伏电池的服务器电源这种低技术含量的权宜之计,他们宣称效率是传统的交流电不间断电源基础架构的99%。

如果你正计划对服务器进行更新换代,你可能要考虑通过575伏直流电直接供电的更大规模系统,比如IBM的Power 750服务器,这台服务器搭建的沃森超级计算机在“危险边缘”智力答题节目中击败了人类的竞争对手。正如去年扩建数据中心时锡拉库扎大学所做的那样,选择的就是配置575伏直流电的IBM Z和Power大型机。

#p#

将热量导入地下

在气候相对温暖的区域,免费的空气制冷方式可能全年都没有用武之处。举例来说,美国爱荷华州除了酷热的夏季外,全年都是温暖如春,气温保持在90华氏度到100华氏度之间,不适用于空气制冷的节能方式。

但是地表温度通常是比较稳定的,一旦挖掘到几英尺深的话,其温度就会相对较低。地表以下的温度受到下雨等外部天气状况或者超过传统设备承载能力的供热的影响较小。将管道引入到地下,服务器散热所产生的热水就能被转移到地表以下,周围的地面将通过传导作用把热量散发出去。

需要重申的是,这项技术并非飞速发展的科学,不过地温制冷需要相当数量的导热管道。成功的地温通道安装还需要事先进行认真的分析。因为数据中心会持续不断的进行散热,将热量导入单独的地表以下会导致本地地表饱和和制冷效果的递减。对数据中心附近地表承受能力的分析将决定指定的区域能吸收多少热量,无论从地下含水层中发生的热转移是否能提高热散失能力,另外对环境的影响也要考虑进去。

提到爱荷华州,ACT大学的非盈利测试中心为他们的爱荷华数据中心配置了一个地温散热接收系统。另外一家位于美国中西部的公司-内布拉斯加州雷斯汀市附近的Prairie Bunkers公司正在其数据中心里尝试地温制冷技术,将占地5000平方英尺的弹药库改造称设备齐全的数据中心。

#p#

通过管道将热量排放到海中

与地温散热方式不同,海洋是用于数据中心散热的有效且无限的接收器。不过你也可以想象:任何足够大的水体,比如美国和加拿大之间的北美五大湖区就可以作为散热储水池使用。

最终海水制冷的关键是数据中心岛屿,就是使用临近地区的海域,利用海水到淡水的热量交换器来为数据中心制冷。这种想法是如此之吸引人,以致谷歌公司在2007年取得了有关海水制冷的专利许可。不过谷歌的方式与本文所要讨论的目标还相去甚远。不过购买或者构建一个岛屿是应该迈出的***步。

但是如果你的数据中心跟海岸,大型湖泊或者内陆水路之间的距离已经比较合适,那么这种想法就是切实可行的。核工厂已经使用海水和湖水制冷很多年了。正如去年秋天Computer Sweden(谷歌的英文译法)所发布的那样,谷歌在他们的芬兰哈米那数据中心采用了这种制冷方式。使用冷却的波罗地海水作为给***百万兆级数据中心制冷的唯一方式,以及用于紧急状况下灭火的供水,充分显示了他们对这种方法高度的信任。纸浆厂有个靠近波罗的海的海水入口,采用两英尺宽的管道来减少项目的施工成本。

淡水湖一直被成功的应用于数据中心制冷。科内尔大学的伊萨卡岛校园就是使用来自附近卡尤加湖的湖水,不仅可以为其数据中心制冷,还能为整个校园制冷。这种被称之为Lake Source Cooling(湖水制冷)的制冷设备构建于2000年,每小时可以抽取35000加仑的湖水,将39华氏度的水分配给2.5英里外的校园。

咸水和淡水制冷系统都需要一种昂贵的组件:即将从湖中抽取的绝缘自然水转换为可以直接用于数据中心制冷的热交换器。这种绝缘对于保护环境和敏感的服务器零件是非常必要的,否则会导致系统漏电。不过除了昂贵的组件外,海水(湖水)制冷除了还需要购买水管外就没有更加复杂的需求了。

小结:这些技术的价值在于没有一项是互相排斥的:你可以将这些节能措施搭配和混合使用来满足短期预算和长期目标。你可以从提高数据中心温度的简单方法开始尝试,其他技术的价值评估要根据你***步所取得的节能效果而定。

【编辑推荐】

  1. 看这些数据中心错误有多蠢!
  2. 如何为数据中心挑选机架服务器?
  3. Google到底有多少个数据中心?图文详解
责任编辑:景琦 来源: 服务器在线
相关推荐

2015-01-21 16:14:59

IoE混合云大数据

2012-03-05 10:16:56

数据中心整合服务器

2015-11-04 10:19:53

数据中心节能方法

2012-11-05 15:22:59

康普光缆DCD

2017-08-25 16:35:50

绿色数据中心秘密

2009-05-22 18:37:30

数据中心虚拟化服务器

2010-09-20 11:28:11

绿色数据中心

2016-08-31 17:24:05

大数据分析

2011-01-07 16:01:03

数据中心

2009-07-13 18:22:02

数据中心CIO虚拟化

2017-09-04 11:03:04

数据中心服务

2021-01-21 16:28:04

AI人工智能数据中心

2010-12-22 10:58:56

思科虚拟化数据中心

2009-07-02 12:31:49

数据中心服务器

2017-10-20 14:37:44

数据中心软件节能

2023-01-12 12:57:00

数据中心首席执行官

2020-12-31 13:06:54

大数据大数据应用

2013-09-17 14:07:56

NEC数据中心冷却

2016-02-15 10:33:04

数据中心

2023-11-29 10:08:30

数据中心直接芯片冷却
点赞
收藏

51CTO技术栈公众号