数据中心为何还对应用蓄冷有疑虑?

服务器 数据中心
数据中心应配备备用冷源或应急冷源来保证供冷的不间断,而蓄冷是数据中心进行冗灾应急供冷的重要方式之一,目前正逐步发展,关于其应用优势与隐患的讨论也在不断增加。

​数据中心​​的特性决定了其需要不间断运行,想要实现这一点,稳定、持续的供冷是基本条件之一。但供冷需要电能才能运转,一旦出现断电等情况,柴发等备用电源启动至稳定供电需要时间,电力恢复后,冷水机组恢复也需要时间,这便会出现供冷不足的情况,影响服务器运行,严重时甚至可能出现宕机的情况。

因此,数据中心应配备备用冷源或应急冷源来保证供冷的不间断,而蓄冷是数据中心进行冗灾应急供冷的重要方式之一,目前正逐步发展,关于其应用优势与隐患的讨论也在不断增加。

蓄冷既能应急又可削峰填谷

从原理来看,蓄冷是利用自然冷源的一种冷源储存方式,其借助昼夜交替的冷热变化,通过夜间多余谷段电力进行制冷,并以低温水等方式将冷源储存起来。目前蓄冷有3种方式:水蓄冷、冰蓄冷和相变材料蓄冷。其中,水蓄冷在我国是被普遍采用的一种蓄冷方式,有着丰富的设计和运行经验积累,近年来在数据中心上的应用也逐渐增多;冰蓄冷伴随技术和产品的成熟,也成为数据中心蓄冷的可行方案,目前也有相关尝试。

对于蓄冷,我国也已提出了相应的规范。根据《GB 50174-2017数据中心设计规范》(以下简称规范),采用冷冻水空调系统的A级数据中心宜设置蓄冷设施,蓄冷时间应满足电子信息设备的运行要求。

规范条文说明也对蓄冷的应急供冷情景进行了详细的描述:1、在两路电源切换时,冷水机组需重新启动,此时空调冷源由蓄冷装置提供;2、供电中断时,电子信息设备由不间断电源系统设备供电,此时空调冷源也由蓄冷装置提供。

因此,蓄冷装置供应冷量的时间应不少于不间断电源设备的供电时间。蓄冷装置提供的冷量包括蓄冷罐和相关管道内的蓄冷量及主机房内的蓄冷量。

规范显示,柴油发电机作为后备电源时,A级数据中心不间断电源系统电池最少备用时间为15分钟。也就是说,蓄冷装置供应冷量时间最少为15分钟。

《GB 50174-2017数据中心设计规范》对蓄冷要求

图:截取整理自《GB 50174-2017数据中心设计规范》

蓄冷的初衷是为了不间断供冷,不过,考虑到数据中心制冷现状与冷水机组冗余量,蓄冷还能够发挥能源储备的调节作用,进行削峰填谷。蓄冷所存储的冷量,可在白天用电高峰释,以供数据中心使用,帮助数据中心获取峰谷电价差效益,降低电费成本。

目前已有数据中心进行实践,并取得良好的效益。在第十六届中国IDC产业年度大典(IDCC2021)上,与会企业代表表示,该企业为北京某数据中心设计的蓄冷罐容量配置是一般数据中心蓄冷常规设计6倍多,主要在波谷阶段蓄冷,在白天波峰阶段实现放冷,保证了制冷连续性长期缓冲,使得连续制冷有了更大的冗余,每年降低运维成本100多万元。

发展蓄冷遇到的问题

蓄冷是对自然冷源的利用,能够提供应急冷源,进行削峰填谷,对数据中心降本增效有着重要意义,但事分两面,在实际应用中,蓄冷同样面临诸多“问题”。

可能造成PUE提升

PUE是衡量数据中心能效水平的重要指标,降低PUE已经成为数据中心建设、运营中的重要目标。但蓄冷却可能造成PUE值的升高。这主要因为蓄冷为保持蓄冷状态需要能源的供给,会加大IT设备之外的用电量,造成PUE的升高。

以水蓄冷和冰蓄冷两种方式来看,水蓄冷中,目前很多数据中心都采用中温水来供冷,其效率较高,但蓄冷密度比较小,因此,占用空间较大,为节约空间,除在设计时做好预留空间,以及将消防水池以及部分不重要的空间利用起来,水蓄冷还会通过降低蓄冷温度来加大蓄冷温差,这就可能导致主机效率下降,蓄冷用电量增加,按正常计算PUE的话,会起负面作用。

冰蓄冷的空间占用虽然较小,但其蓄冷温度较低,资料显示,其制冰温度一般取—4到—8℃,远低于水蓄冷4℃的蓄冷温度,想要保持这一温度,也会产生较多的耗能,同样会对PUE造成影响。

这就导致数据中心在布置蓄冷设备有较多顾虑,为蓄冷设备的发展形成了一定的阻碍。

一定机率带来安全问题

安全是数据中心的根本,而蓄冷设备增加的本身便会可能带来新的安全隐患。

一方面,设备安装有可能增加出现安全故障的概率,尤其蓄冷罐体积庞大,设备复杂,安装难度极大,其建设可能会引发安全事故,如蓄冷罐沉降事故,以及由于蓄冷罐和主楼沉降不同,导致蓄冷罐和系统相连的管道被剪断,造成工程事故等;一方面,设备的使用也可能会带来安全问题,蓄冷能够提供冷源的时长与稳定性需要结合数据中心情况而定,这就导致蓄冷设备的设计和布局均会有所差异,对内部布水器的设计也有着不同要求,受这些因素影响,一旦蓄冷罐放冷时间未满足实际需要,在使用过程中,便可能影响数据中心安全。

对整体布局影响大

数据中心是一个整体,蓄冷设备占用空间大,与数据中心交互多,其建设对整体布局有着较大的影响。

如蓄冷设备在规划时不仅考虑其自身的运维、调试和检修,还要评估运维、检修对数据中心的运行可能造成的影响,需要及时发现隐患和问题,以确保系统的安装和正常工作;再比如水蓄冷建设过程中,移峰填谷水蓄冷可与应急供冷进行结合,也可与冷却水的应急水池和消防水池结合,此时水蓄冷方案要充分考量各种功能水池相互可能造成的影响,才能使水池在应用时,不会对其他水池功能造成负面作用。

蓄冷设备对数据中心规划建设影响大,也就意味着数据中心需要在运营上投入更多,建造难度也更大,这一定程度上影响了蓄冷设备的应用。

解决方案及发展方向

从蓄冷作用来看,其能够保障数据中心正常运转,充分利用自然冷源,降低数据中心运行成本,在数据中心中有其存在的必要性,但想要完成更大范围的推广与应用,则需要解决上述问题。结合相关实践与探索,目前主要包括以下几种方案与方向:

综合计算PUE

PUE在数据中心能效水平衡量过程中发挥着举足轻重的作用,想要发挥蓄冷在供冷方面的作用,又避免蓄冷在PUE上的负向影响,就需要充分考虑蓄冷的制冷效果,考量其在降本增效方面的作用,将之作为具备灵活性的变量来计算PUE。

目前也已经有地方对此进行探索,如《上海市数据中心建设导则(2021版)》提出,综合考虑若干技术对数据中心自身及城市整体能效提升的作用,鼓励技术的有效应用。在基准PUE指标基础上计算综合PUE指标,并以综合PUE指标作为该导则对各数据中心的约束条件。

综合PUE的计算公式为:PUE综合=PUE基准—∑γi

γ错峰蓄冷因子衡量被评价数据中心采用蓄冷技术降低峰值电能负荷的程度。根据全年累计总放冷量达到总用冷量的比例,可取定不同的错峰蓄冷因子:

《上海市数据中心建设导则(2021版)》中关于蓄冷对PUE影响的计算公式

推动蓄冷技术发展

技术是推动行业进步,提升产品应用范围的源动力。蓄冷目前面临的安全问题、对整体建设的影响,都可以通过技术来缓解甚至解决。

基于当前实际,蓄冷技术的进步主要分为两方面,一方面是智能化技术的提高,不论是削峰填谷,对于蓄冷温度的控制,均需要结合数据中心的状况来进行,唯有高智能化手段,才能在现有基础上进一步实现把控与协调的精准性,提升能源的使用效率;另一方面,基于蓄冷的技术需要不断进步,目前相关探索也在增多,如动态冰蓄冷系统的发展,其中的冰浆系统,由于效率高、体积小、故障率极低,性能明显优于制冰滑落式机组和过冷水制冰系统,已成为数据中心冰蓄冷系统的可选技术之一。

与储电进行充分结合

数据中心储电指的是储存新能源来为数据中心供电,将之与蓄冷结合,则是指新能源发电用于蓄冷。

蓄冷具备使用夜间谷段电能的特性,新能源存储也需要时间来完成充能,两者的结合,能够充分结合这一特性,实现时间与能效的进一步利用。如太阳能,通过光伏设备可在白天进行能源的存储,在晚上为蓄冷供给电能。

同时,通过储电与蓄冷的融合,在原有提供应急供冷、削峰填谷的基础上,更进一步地提升新能源的使用,推动数据中心节能减碳。在当前阶段,这也为新能源消纳、储电的发展提供新思路。

与多产业冷源供给形成联动

伴随“双碳”目标的临近,对于能源的利用正变得更加充分且具备相互连接性,数据基础设施也有望与众多民生产业形成联动。

作为与能源息息相关的行业,数据中心既需要大规模蓄冷,也会产生大量热能,这就使其有基础成为超级能源综合体,通过开发冷能与余热,供给多个产业用能,形成多行业多场景的能源交互、联动发展,将高载能变成高供能。

在蓄冷方面,理论上,数据中心能够结合的场景较为丰富,如临近滑雪场、大规模冷链物流等,通过提供持续冷源,形成高能效、低排碳的用能生态系统。当然,形成这一场景的有诸多前提,包括蓄冷稳定,冷源充足,符合经济效益等,目前这方面条件还相对欠缺。

综合来看,作为应急冷源,蓄冷是数据中心实现不间断供冷的重要选择,且可以进行削峰填谷,但其对PUE的负向影响、存在的安全隐患,以及较高的建设难度等也不容忽视,数据中心想要利用好蓄冷,还需在多方面进行探索,如水蓄冷、冰蓄冷的选择,如PUE计算考量因素及方法的适时调整,如技术、安全方面的发展,依旧任重而道远。

责任编辑:庞桂玉 来源: 中国IDC圈
相关推荐

2014-12-09 17:02:11

数据中心

2024-05-31 09:50:21

2018-06-19 10:52:20

数据中心服务器液冷

2015-06-25 14:07:09

绿色数据中心

2011-09-14 10:43:39

数据中心服务器制冷

2019-10-21 11:14:50

数据中心云计算技术

2019-10-21 10:07:00

数据中心员工招聘

2020-11-27 11:46:17

数据中心

2023-12-28 16:31:27

数据中心

2018-04-19 15:00:37

数据中心

2021-08-25 22:40:09

数据中心IT通道

2015-12-08 17:38:10

数据中心温度湿度

2012-07-06 13:31:05

EVB虚拟化数据中心

2016-11-08 15:16:20

2012-02-21 09:47:49

数据女性

2023-04-26 15:30:19

2018-10-10 19:32:17

数据中心火灾机房

2021-06-28 14:20:23

数据中心数据中心架构数据中心网络

2024-04-15 09:58:37

点赞
收藏

51CTO技术栈公众号