从芯片到冷却器的数据中心节能法

服务器 芯片
新一代数据中心的建设和改造并非一帆风顺,通过运用独特方法论,并借鉴行业用户最佳实践,惠普制定出从数据中心战略规划到标准评估的新一代数据中心策略。

新一代数据中心的建设和改造并非一帆风顺,通过运用独特方法论,并借鉴行业用户最佳实践,惠普制定出从数据中心战略规划到标准评估的新一代数据中心策略。新一代数据中心策略为企业提供了涵盖全部数据中心生命周期的理念、技术、产品及解决方案,该策略包涵了数据中心建设与改造、转型、绿色节能、自动化、业务连续性、容灾、虚拟化、数据中心的整合及评估服务等多个方面。

比特网(Chinabyte.com)就数据中心节能这一话题有幸采访到惠普新一代数据中心架构师蔡建华先生,他为我们介绍了惠普新一代数据中心从芯片到冷却器的节能方法。以下为访谈的具体内容:

记者:在帮助企业提高数据中心能效方面呢?惠普拥有全系列的产品和技术,能否具体介绍一下惠普从芯片到冷却器的节能方法和技术。

蔡建华:我们能够提供一种全面的节能技术,从芯片到冷却器的节能。芯片就是我们服务器里面具体的组件,冷却器是在整个数据中心空调控制的层面上。

具体分为四个层级的技术组合。

第一个层级是数据中心内的服务器,包括里面的组件的层级,包括CPU,现在无论是Intel还是AMD,也包括其他的一些厂商,CPU本身就会有能耗控制的能力,会根据闲忙的状况来调节电力的使用。另外还会采用较小的硬盘,因为小硬盘与大硬盘相比会节省一倍的电力方面,其他措施还比如说使用低功耗的内存。这里面还有一个比较重要的就是电源转换模块,一般在服务器里面接入进去的都是220V或者380V比较高的电压,用的时候会转换成直流电的方式供电,转换效率也是非常需要注意的,我们在一开始提到,在数据中心的能耗中4%就是用于电源转换的。服务器层面的转换技术也是非常重要的。我们推出的技术都会达到90%以上的转换率,这个对业界来说也是非常高的水平第二、是机柜层面的,有代表性就是刀片系统,它对服务器、存储、网络、电源进行综合模块化、标准化配置,这里面惠普应用了能量智控技术,比如说机箱里面的总线结构。在数据中心里面机柜冷却是前面输入冷空气然后把热气从后面排出去,冷空气进来的时候,它在服务器机箱里面如何流动,这就是整个线路的体系设计,是有技术含量的,我们有超过20个专利在里面。

还有一些主动式的风扇技术,主动风扇不像以前的风扇,总是以固定的频率运转,而是根据负载情况去运转。这都是运用了能量智控技术。

另外,从数据中心组建的眼光去看的话,机架和机架之间,机柜和机柜之间的系统级技术,虚拟化技术可以用来提高资源的利用率,这也极大的提升了能效水平。惠普最近推出了动态功率封顶技术,我们可以根据服务器历史使用的状况得出平均功率使用的要求和尖峰功率使用要求,然后根据不同的值把功率固定在一个范围内。其实一般的服务器都有名牌标称的功耗要求,其实这个要求是最大值,会把开机的时候瞬间电流冲击等等以及可能满载之后整个运行的要求全部考虑在内。其实服务器设备的使用并不都是这种状况的,所以这里面存在很大的调整空间,惠普推出这种功率封顶的技术会非常大的提升机柜服务器的利用率。比如说一个10千瓦的机柜,我们原来只能放10台服务器,现在可以放20到30台,提升了2-3倍,这带给我们的客户的效益非常大。另外,为什么叫做动态,即在控制的时候,能够让它随着需求来变化。假如功率总非常高,压力突然增加的时候,设定值一下子冲破了怎么样办。这种技术有一种电路保护功能,确保不会冲破这个值,不会对整个数据中心的供电会造成故障,所以我们叫动态功率封顶的技术。

第四是整个数据中心层面的,涉及到电源的使用和与空调制冷等等相关的散热。在电源的使用方面,我们会提供一些能源转换率,利用率非常高的配电机柜、UPS等电源解决方案。像制冷方面的,我们可以提供一些比较智能的、精确的制冷。数据中心里面有一些地方有热点,有一些地方是冷的,我们是调节制冷能力的分布,只对热点的部分提高冷却能力。比如数据中心里面这个地方温度过高,就会调节这个地方的冷却能力,这是动态的、精确的、更加智能化的冷却技术。这样的提升给对现有散热方面的浪费进行有效的遏制。前面说到散热在数据中心整体能耗占有主要部分,我们把这部分的能耗控制住的话,对企业的能效的成本花销来讲是非常大的节约。

现在惠普在数据中心层级还有一些新的技术,比如说水冷机柜。传统数据中心里面功率密度的设计能力是有限的,比如说一个机柜的功率密度超过15千瓦的时候,传统的散热的方式没有什么效果了,这个时候就需要凭借惠普的水冷机柜。惠普的水冷机柜已达到业界最高水平,功率密度能够提升到35千瓦一个机柜,即使安装刀片服务器也可以进行有效的散热,它的耗电不会超过传统机柜的耗电。

另外,惠普还能够提供集装箱式的数据中心(HP POD),它类似于集装箱式的容器,能效比会更高。拿刚才我们说过的数据中心能耗指标PUE来说,集装箱数据中心的PUE可以达到1.25,基本上传统数据中心做不到这样的能效水平。以上,就是惠普所说的从芯片到冷却器的全面的产品和技术方面的解决方案。

【编辑推荐】

  1. 全面实现数据中心业务优化
  2. 新一代数据中心的安全保障
  3. 数据中心的存储历史
责任编辑:符甲 来源: 比特网
相关推荐

2013-05-10 10:10:29

数据中心机房风冷却

2015-06-09 11:12:11

数据中心冷却塔

2023-03-29 10:54:22

数据中心液体冷却

2009-02-06 11:49:00

数据中心冷却数据中心节能

2012-11-21 11:32:23

数据中心绿色数据中心冷却设计

2013-09-17 14:07:56

NEC数据中心冷却

2012-12-06 14:25:00

IBM绿色数据中心节能

2023-07-19 16:12:53

2023-03-06 15:09:41

数据中心

2024-02-26 18:28:57

机架冷却数据中心服务器

2015-06-01 15:22:57

数据中心

2011-07-11 13:42:30

英特尔传感器数据中心

2016-11-08 13:47:46

数据中心迪尔曼

2020-10-19 11:17:15

数据中心

2012-02-23 09:39:05

云计算数据中心

2017-01-22 21:00:22

数据中心冷却系统散热

2020-05-26 14:54:05

数据中心液体冷却能源

2009-10-21 17:44:13

惠普绿色数据中心

2023-11-29 10:08:30

数据中心直接芯片冷却

2018-08-03 13:02:03

数据中心液冷冷却
点赞
收藏

51CTO技术栈公众号