#1 某老旧大型数据中心运营现况 当前国内数据中心运营商大多以10年作为全生命周期的投资盈利测算或场地租赁期限。国内5年前建设投产,至今仍在运转的大型数据中心都或多或少存在产品技术及系统架构隔代、运维管理粗放、上架率不高、实际单机柜功率低于或高于设计值、供配电系统带载率偏低、过度供冷、局部热点高发、设备寿命缩短、年均PUE居高不下(上架期更明显)等一系列突出的痛点问题[1,2]。
#1 某老旧大型数据中心运营现况
当前国内数据中心运营商大多以10年作为全生命周期的投资盈利测算或场地租赁期限。国内5年前建设投产,至今仍在运转的大型数据中心都或多或少存在产品技术及系统架构隔代、运维管理粗放、上架率不高、实际单机柜功率低于或高于设计值、供配电系统带载率偏低、过度供冷、局部热点高发、设备寿命缩短、年均PUE居高不下(上架期更明显)等一系列突出的痛点问题[1,2]。
以某老旧大型数据中心为例,前后三期历时3年建成,现已运行3年多,基本情况见表1。
通过实地调研和基本分析,该项目属于国内典型的传统地板下送风+水冷冷水主机制冷架构+中低功率密度机柜模式,由于设计和实际运营上架之间的偏差,加上缺乏精细化运维管理,可以推断该项目仍然存在较大的节能及挖潜空间。
#2 节能降本方案及成效分析
国内早期传统数据中心在设计建设阶段往往对业务上架分析不足或规划设计上缺乏一定的弹性,交付运营后的1~3年内因进驻客户少、缺乏科学合理的上架布局规划或精细化运维管控,导致大部分项目年均PUE居高不下,总体运营成本偏高、收益缩减,本项目也存在类似问题。
本文以安全可行为前提、以降本增效为目的,对该项目给出了9个节能举措及其成效测算。
2.1 提高UPS系统的带载率
由于当前IT负载上架不足导致UPS系统带载率普遍偏低,并机系统全开启情况下单机带载率低于20%的居多,因此UPS系统损耗存在节约空间。
有必要通过关闭部分IT用的及动力用的UPS主机,按照季度热备轮休方式来提升并机系统带载率(85%是主流上限值),即总共可关闭36台UPS,保守估计可节约的系统损耗负载约1404kVA(UPS系统效率按97%估算)。
该操作方案同时可减少蓄电池充放电功耗次数,延长UPS及蓄电池寿命。
2.2 做好冷通道100%封闭
本项目上架率约70%且整体负载率约69%,未上架的1200多个机柜及未上满的机柜所在174条冷通道侧均未做密闭封堵,全机房楼有88条冷通道通风地板不具备风量可调功能。
通过增加2.8万块盲板及调换1220块可调节通风地板,确保所有冷通道的气密性良好及其通风地板50%可调。
冷通道通风地板调换原则为优先考虑上架率低或空置的机柜附近,后期需结合上架情况经常性调换可调节地板的安装位置。
通过以上操作,可确保所有机房气流不短路不串流,最终实现不跑冷和按需供冷。
2.3 提高空调系统运行效率
空调系统配置及节能操作方案见表2。该项目数据机房及配套低压室、电池室共有254台冷冻水空调存在过度制冷情况。
在确保安全可靠运行及按需制冷的前提下,共可关闭机房楼142台精密空调,按COP(能效比)=18计算,这将减少配套制冷功耗约1188.1kVA。
2.4 严控非核心区域制冷功耗
非核心区域(如大堂、安保、接待、休闲区等)应尽量关闭风机盘管,共可关闭27台风机盘管,总功耗约为4.9kW。
设置新风系统的主要目的是维持正压和给机房换气。夏天需要额外降温除湿,冬天需要额外加热加湿,室内空调功耗也随之增加。在无人时、无人区、夏天冬天时,应尽量关闭或少开启新风系统,共可关闭37台新风机组,总的功耗约为281kW。当室外温、湿度达到机房可利用标准,可开启新风并适当关闭机房空调,利用大自然的冷量实现节能。
定期检查所有机房热通道区域的地板,防止各种方式的漏风跑冷。
尚未上架的机房独立区域,应该关闭所有的空调及其供电设备。办公楼的空调设备也应做到严格管控,人走即关。
2.5 优化空调系统参数设置
暖通系统参数调整节能方案见表3。按顺序对暖通各子系统参数进行调整, 期间必须设置操作稳定观察期,并随工况微调变化,可进一步提高暖通系统COP,降低空调CLF(制冷负载系数)值。
2.6 实行分区分时照明管控
前期设计并未采用智能照明技术,机房楼的机房区及其配套区域均实行100%开启照明,办公楼大部分区域也未能实现人走灯灭或空调关机。
对于机房楼内的机房区域,实行全天开启30%的照明。
对于机房楼的消防水池、补水池、蓄冷池、网管中心、高低压配电室、冷机房、UPS室等配套区域全天只开启1~2个照明开关(每个开关控制5只灯管)。
对于机房楼的接待大厅、开关房、变压器室、油机室、网络接入间、电池室、钢瓶间、走廊及屋顶等配套区域全天实行人走关灯。
接待大厅及走廊区域的空调无人时实行人走关机。
对于办公楼内各区域照明均实行白天不开启少开启、晚上人走关灯。
以上措施,均通过运维人员及安保巡楼加以实施执行。
经测算,机房楼照明负荷达74kW,其中IT机房照明为41kW,按节约20%计算,配套区域照明33kW, 按节约40%计算,总共可节约配套照明功耗24kVA。
2.7 实施屋顶光伏供电
优先考虑在机房楼+办公楼空余地块实施屋顶光伏方案给办公楼及配套照明空调供电,自用率约95%,经测算光伏装机容量为265kWp,投资成本约120万元。年发电量235000kWh,年均收益19万元,回收周期6.3年,可降低PUE约0.0016。
2.8 启用大型蓄冷池节电
大容量蓄冷池充蓄冷成效测算见表4。本项目配置6000m3的蓄冷池,按运维操作票需投入2~3个现有运维人员,每天0~8点共8个小时进行蓄冷操作,每天14~19点共5个小时进行放冷操作。
蓄冷阶段比正常工况多开1台充冷冷机和1台充冷水泵;放冷阶段关闭2台冷机,2台冷却泵,1台冷冻泵,需要多开1台放冷水泵。
全年春节、国庆假期及突发情况共约2个月不能蓄冷,按全年300天可蓄冷节能计算,通过启用蓄冷池削峰填谷每年可节约电费178万元。执行充蓄冷操作对全年平均PUE降低稍微会有一点改善,可暂不计入。
2.9 AI 深度节能技术
当前数据中心AI节能技术架构典型的有4种算法类型:自控类公司常规算法、变工况人工经验算法、基于数据驱动的神经网络算法、基于数据驱动和机理框架的智能算法[4-5]。
最后这种智能算法是基于系统整体全局优化控制,利用校核的系统模型实时寻找机房运行的最佳效率点,侧重整个空调系统的智能深度节能(系统级COP提升),即使在历史运行数据不好的情况下也能够实现主动高精度的预测与优化,其节能率比常规算法高10%以上。结合厂家项目经验数据测算,年平均PUE可降低约0.05~0.10左右。本次成效测算时暂不计入估算。
综上所述,执行以上8个常规节能举措共投资约400万元,保守估计每年可节约993.2万度电(折合标准煤为1221.64吨,折合二氧化碳排放量为3261.8吨),节约电费约662万元。改造后年平均PUE可从1.430降至1.296左右,节能成效可观。
#3 挖潜方案及成效分析
本项目实际上架平均负荷低于设计值导致电量。冷量存在大量富余,且园区室外及屋顶均存在空置场地可用于挖潜。
目前园区总电量扣减未上架机柜用电需求后剩余6222kVA,经测算可在园区室外地面和屋顶的空余场地扩建机柜683架(单机柜按6kW,年均PUE暂按去年值1.43考虑)。
该项目可优先采用带冷冻水空调的预制式集装箱数据中心进行挖潜,其他项目可以考虑直接采用带间接蒸发冷却空调或常规风冷空调的预制式集装箱,对现场的改造影响最小且交付速度非常快。
挖潜的机柜如能成功投入运营,每年带来的机柜租赁、带宽分成收入至少在5000万元以上,将一定程度上缩短项目投资回报周期。
#4 结束语
本文以某主流大型数据中心案例为应用研究对象,通过常规节能举措和AI 节能方案,可明显提高运维精细化管理水平及核心机电设备的运行寿命,可有效降低年均PUE及提升全生命周期内项目的运营收益。
保守估算该项目实施相关节能举措后年均PUE可降至1.296,每年至少减少二氧化碳排放约3261.8 吨,可以节约电费成本662万元。而实施挖潜改造后,每年可增收至少5000 万元。
以上举措适用于当前国内同类型老旧大型数据中心的降本创收,有助于达成PUE降至1.30以内及打造绿色低碳数据中心的相关政策管控目标,而且对新建大型数据中心项目的规划设计、上架布局、精细化运维及高效节能管理也有一定的借鉴参考价值。
作者:陈凤,陈皓,陈晓
参考文献1 车凯. 低负载下数据中心节能思路[J]. 暖通空调,2022,52(3):88-92。2 石云鹏. “双碳”背景下数据中心能耗现状与节能技术研究[J]. 中国新通信,2022,24(8):119-121.3 朱慧宾,龚雪. 数据中心空调系统节能优化控制系统的硬件要求[J]. 暖通空调,2022,52(S1):387-389.4 杨丽娜,赵鹏,王佩哲. 基于GRU神经网络的数据中心能耗预测模型研究[J]. 电力信息与通信技术,2021,19(3):10-18.