数据中心的设计要点可分为以下四个方面:总体设计目标、供配电系统设计、空调系统设计。
1.总体设计目标
可用性指标
达到行业***的A级和T4级,以满足用户的要求。
功率密度
平均至少达到1Kw/m2以上,未来应达到2Kw/m2级别;
支持15Kw-30Kw级别的高负载设备的紧密部署。
运用部署灵活性
IT运行区:
集中和大开间,以提供弹性部署;
与基础设施分离,以提供多级别的安保措施。
配电和网络布线:
上走线方式,以便于长期使用中的灵活调整性;
可重新部署的末端配电,以支持不同设备的用电要求。
高可用性设计:冗余设计是基本前提
可用性和冗余设计
a.【任何的】基础设施都需要调查和维护,并且都不能排除故障风险。因此冗余设计是保障高可用性的必要前提。
b.双路、多路并行是冗余设计的基础,但不是全部。冗余设计的深度和方式,才是高可用性的核心。
c.整体可用性=各部件可用性的乘积:
并机数据的增加,将导致并机单元的可用性下降。
【对策】:大功率组件,配合适当的负载分区(缩小负载要求)。
串联数量的增加,将导致串联环节的可用性下降。
【对策】:在每个环节之间安排两路之间的跨接(终止串联)。
整体可靠性
可靠性=基础设计可用性ד管理成熟度”
“管理成熟度”的参考依据“ISO20000、ISO27001…
功率密度:低密度还是高密度?
低密度布局只能是不得已的应付策略:
a.以面积换供电和制冷能力:供电/空调以外部分的投资/费用被加大;
b.运行效率下降、成本上升。
高密度策略是合理的出路,但存在难点:
a.分布式/机柜级系统:在机房多出散布大量的机组
难点:设备运行空间被分割:灵活性下降,对运行管理带来复杂性。
b.采用水冷的分布式/机柜级系统:
难点:水管路系统进入运行区:难以地板下布线;需要有事故排水系统。
c.集中式冷源系统(含风冷和水冷):
难点:庞大的送回风空间需要建筑解构的配合;不便于解决“热点”问题。
用于外包服务的数据中心的发展方向:
将以集中式水冷冷源为主,并以辅助的分布式/机柜机冷源应对“热点”。
#p#
2.供配电系统设计:
相对简单的:依据A级/T4级数据中心规范,采取N+N双路冗余设计。
损耗及线路安全问题:由于用电量极大,设备布局问题需要引起足够重视。
全容错的供配电系统:
柴油发电机系统:
#p#
3.空调系统设计
对于高等级数据中心,空调系统的设计***挑战性:包括极高的制冷要求;集中布局,与IT设备分离,长距离送风等。
应对措施:
室内部分:
a.使用独立的下送风和上回风方式或者上送风管系统;
b.加大送风层和回风层的高度,以满足高负载、低风速的静压箱条件:
送风层/回风层净高度(mm)≈0.6~0.7×设计平均功率密度(w/m2)
(条件:运行区深30~36m,双向对置)
室外部分:
室外机的冷却气流的组织同样重要,进行双向对置摆设,以达到合理的冷却要求。
电能使用效率:PUE=(IT设备用电量+辅助设备耗电量)/IT设备用电量。
通常PUE为2.0~3.0,越接近1越好;
辅助设备耗电的费用,在相当程度上影响数据中心的运行费用。
辅助设备耗电量中,空调系统通常占据50%以上
使用风冷系统的数据中心,PUE不可能小于1.8,通常在2.0以上
风冷系统+自由散热,是成为绿色数据中心的基本条件。
水冷系统带来的设计难点:
水系统的冗余设计:双管路或环形管路
事故应急泄水:从屋外到管井、管廊
供水保障:多水源供应以及蓄水池
【编辑推荐】