加入收藏 | 设为首页 | 会员中心 | 我要投稿 西安站长网 (https://www.029zz.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 运营 > 正文

除了PUE,你知道IUE吗?

发布时间:2019-08-06 10:58:53 所属栏目:运营 来源:中国IDC圈
导读:副标题#e# 随着5G技术的落地,让万物聚合互联,释放数据价值,这更需要高效的云计算数据中心。在最近举行的2019维谛技术峰会上,维缔技术(Vertiv)创新性推出了基于POD(性能优化数据中心)架构的供电最佳颗粒度和制冷最佳颗粒度模型。这套数据中心最佳颗

除了考虑UPS的容量之外,还要考虑UPS的可靠性,单模组UPS的容量是小于变压器的容量的,要接近或达到变压器的容量,则通过并联实现。但是UPS模组并联过多就会涉及到UPS并机环流问题,UPS并联的模组越多,意味着可靠性下降。从下图由马里兰大学CALCE研究中心提供的UPS并机可靠性曲线看到,当UPS并机模组数量超过4台,其并机系统的可靠性将比一台单机的可靠性还要低。

这一点与我国相关规范是不谋而合,GB50174-2017要求UPS模组并联数量最多四台,也就意味着目前单个UPS系统的容量不会超过2400KVA(即2.4MVA)。这就大致决定了变压器容量的选择。

5

UPS电量供应使用率与UPS并机可靠性曲线,由马里兰大学可靠性研究所提供。(图源自:维谛技术)

根据上图可以看出,在数据中心领域,根据UPS模组容量的不同(比如400KVA、500KVA、600KVA),在4台UPS并联后,UPS电量供应IUE曲线(最佳点是100%使用率)与可靠性曲线(要求并机的可靠性高于单机)的交叉点形成供电最佳颗粒度选择为1.6MVA、2MVA和2.4MVA。

供电的不同选择当然也意味着其POD内服务器功率的选择将发生改变,这给应用需求与服务器选型提供了灵活性。当然,如果POD内服务器功率是5KW每个机柜,每个POD是1MW(需要1.2MVA UPS供电),建议采用2.4MVA给2个POD供电。

供电选择完后还要选择散热系统。IT加上散热的能耗几乎约等于数据中心的总能耗了。而散热系统的能耗又由选择何种散热系统决定,散热系统的能耗也是影响数据中心PUE的最大因素。

第三,最佳的制冷颗粒度。

数据中心散热系统目前主流有“风冷”空调和“水冷”空调两种可供选择,

虽能目前大部分云计算数据中心比较青睐离心机或螺杆机的冷冻水“水冷”解决方案,但“水冷”空调散热系统的管道设计复杂,由于冷冻水机组空调换热环节多,系统效率低,无法实现超低PUE的交付。而且“水冷”空调系统的冷量设计较为巨大,通常以上千“冷吨”为单位,需要数百千瓦的电力供应,冷量使用率较低,维护成本很高,且不宜工作在低负载状态,进一步降低了散热系统的效率。

6

上图表示在相同POD数量下(以某个数据中心6个POD为例),“风冷”空调与“水冷”空调的使用效率对比。满足相同数量的服务器散热时,“风冷”空调的效率明显高过“水冷”空调。此外,IT低负载时,为了避免冷机“喘振”导致故障或停机,“水冷”空调散热系统通常不能使用

在一个部署了6个POD的数据中心内,其服务器总功耗为12MW,这意味着需要12MW的冷量。如果采用维谛技术(Vertiv)的Liebert®PEX4超高能效精密空调,单个POD需要22台(单台冷量100KW)以20+2的方式冗余制冷,同时考虑到电力机房与电池机房(UPS间)所需冷量,约共需要164台PEX4空调提供16.4MW的冷量(设计冷量)。而这个数据中心实际需要13.6MW冷量与设计冷量16.4MW之比即为冷量使用率(83%)。

(编辑:西安站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

热点阅读