冷却负载、人为因素影响传统数据中心效率

服务器 数据中心
FM必须确保旧数据中心能够满足新的散热和人员需求。数据中心的许多问题都与冷却有关。能源成本是一个主要问题。提高能源效率的一种方法是提高返回温度。

 数据中心的许多问题都与冷却有关。能源成本是一个主要问题。提高能源效率的一种方法是提高返回温度。Smith指出:“提高冷却装置的回水温度可以提高冷却装置的效率。”“尽可能干净地将供应和回流分开,就能满足这一要求。”

 

另一个常见的挑战是在需要防止热点的地方进行冷却。气流问题的一个明显迹象是使用便携式风扇——一种权宜之计,将冷空气推向问题区域或将暖空气推离问题区域。当设施经理考虑热点问题的永久解决方案时,他们应该注意这些解决方案的整体影响。例如,简单地增加另一个CRAC装置来增加进入数据中心的冷气量“不是节能的,有时还会适得其反,”PlanNet关键设施的工程总监兼负责人迈克尔·弗莱格曼(MichaelFluegeman)说。

[[332646]]

另一种策略是将助推器风扇用于地板或天花板瓷砖或烟囱柜中。但助推器存在挑战。Fluegeman说:“助推器风扇可能会增加故障点,并且很难完全消除冗余。”

在高架地板环境中,地板本身是空气分配系统的关键要素。

史密斯说:“地板上的漏水让空气直接短路回到进气口,从而浪费了冷却能力,而不需要做任何工作。”此外,史密斯指出,此类泄漏会降低整体静压,从而降低将冷气供应到机架顶部安装的设备的能力。

Fluegeman指出,许多传统数据中心都由电源和散热设备支持,办公和其他功能也可以使用它们。“重新配置或重新布线非数据中心负载,以使其脱离数据中心支持系统,不仅释放了数据中心的容量,还使其更加可靠。”

为消除气流阻塞点,Manula建议设施管理员考虑采用电缆修复程序来检查地板下的物体。废弃的电缆和脚下其他隐蔽的意外现象可能会阻碍空气流通。Manula还强调了主动维护计划而不是被动维护计划的重要性。他建议,设施经理可能要考虑在关键设备出现故障之前进行更换。

人为因素

据英国地理信息系统全球关键环境团队北美部国家主管大卫?波士顿(DavidBoston)称,传统数据中心的大多数停机事件都是人为错误造成的。波士顿说:“FMs在解决这一问题上面临的很大挑战,或许是如何合理地调整员工规模,以及如何制定转移覆盖计划,以降低风险。”

为了证明适当的人员规模和轮班覆盖范围,设施经理需要向董事会展示如何避免因停机而导致的成本与预防人力成本的投入相比。

波士顿表示,当业务真正关键时,每个班次至少需要两个人,即24x7,通常相当于11至12名工作人员。

波士顿说:“九个是覆盖所有轮班(最少7天,三班)的最小值。”“那么,您需要一个人来填补那些在休假、病假等情况下的人。”另外一个或两个职位应侧重于轮班技术人员小组的程序和培训计划;他们还负责特殊项目,升级和类似的职责,以免使轮班工程师的核心团队摆脱日常的预防性维护和任务工作。

波士顿说:“对于冷却系统和发电机事故,如此高的人员配备和轮班覆盖率通常会导致事故在导致停机之前得到解决。”“对于电力事故,可以更快地稳定条件,并且可以更快地开始恢复服务。”

重要的不只是员工人数。“看看您的员工,看看他们是否需要更多培训,”Manula建议。

适当的人员规模有利于教育。波士顿说:“在优秀的关键操作中,每个团队成员花费相同的练习时间来执行每个系统转移并模拟每个紧急响应。”“通过这种方式,他们每个人都做好了应对紧急情况的自信准备。而且,每次轮班有两个人在场,在执行过程时,他们可以始终采用“读取并重复”(pilot/co-pilot)过程,以避免跳过或重复一个步骤。”

波士顿估计,关键设施运营每年需要大约50到75个应急响应程序以及75到100个系统转移程序。(系统传输程序是指在维护或维修之前隔离建筑系统,然后在之后恢复使用的程序。)

如果停机时间的成本不能保证每班2人全天候24x7覆盖,波士顿建议采用一日班制。然而,只有五到七名团队成员,就必须放弃广泛的程序开发和培训计划。据波士顿称,该组织将需要接受对晚上和周末发生的事件的延迟响应。

责任编辑:华轩 来源: 千家网
相关推荐

2015-06-04 10:35:39

数据中心

2010-09-30 16:38:20

2023-07-19 16:12:53

2020-10-31 21:42:20

物联网医院IOT

2015-10-20 10:27:18

数据中心托管

2020-06-05 11:21:10

物联网IOT大数据

2010-09-09 08:57:28

2010-09-03 16:44:22

2015-12-09 10:05:06

数据中心冷却技术

2010-09-06 10:26:30

2021-06-29 10:44:40

数据安全数据泄露风险

2023-06-26 11:37:40

2023-09-23 08:09:32

2023-11-03 07:13:20

数据中心计算机标准化

2015-06-10 15:16:19

数据中心

2023-03-06 15:09:41

数据中心

2022-08-17 10:14:17

数据中心能源消耗制冷

2012-02-13 10:40:18

网络数据中心

2020-05-26 14:54:05

数据中心液体冷却能源

2023-03-29 10:54:22

数据中心液体冷却
点赞
收藏

51CTO技术栈公众号