据统计 , 数据中心能耗已占全社会总用电量的
据统计 , 数据中心能耗已占全社会总用电量的 1.5%~3%, 其中空调系统耗电量占数据中心总耗电量的 30%~50%[1] 。因此 , 如何提高数据中心空调系统能效 , 实现绿色节能运行 , 已成为业界关注的焦点。本文将从负荷计算、系统选型、节能策略、案例分析等方面 , 探讨数据中心空调节能的途径与实践 , 以供相关从业者参考。
数据中心的冷热负荷主要来自以下几个方面[2]:
(1)IT设备散热 :服务器、存储、网络等IT设备的发热量,是数据中心冷负荷的主要组成部分,占比可达70%以上。
(2)照明散热 :数据中心内照明灯具的发热量,一般占冷负荷的3%~5%。
(3)人员散热 :值守人员的代谢热和设备维护过程中的散热,占比较小。
(4)围护结构传 热:机房围护结构的传导、辐射等得热或失热,在负荷中占比5%~10%。
(5)新风负荷 :引入新风所需的显热和潜热处理,在夏季制冷时需考虑。
数据中心冷热负荷的计算要点如下[3]:
(1)IT设备散热量: 根据设备额定功率、数量、机柜布置等因素估算,可乘以同时使用系数(0.5 1.0)。
(2)人员散热量 :按每人 120W 计算,乘以人数和在场时间比例系数。
(3)围护结构传热 量:依据机房建筑材料、面积、温差等,采用传热学方法分别计算得热和失热量。
(4)新风负荷 :根据新风量和室内外空气状态计算显热和潜热负荷,一般按每机柜 100~300m3/h 新风量设计。
数据中心冷源形式主要有风冷、水冷、蒸发冷等。风冷具有投资省、布置灵活等优点,中小型机房较常用;水冷具有效率高、噪声小、运行稳定等优势,大型数据中心普遍采用;蒸发冷适合干燥地区,可大幅节约用水[4]。冷源形式应根据数据中心的规模、气候条件、水资源等因素综合选择。
数据中心的空调方式大致分为机房级和列间级两大类[5]。
(1)机房级空调 :将冷量直接送入机房内,常见的有空调机组、close coupled 空调器等。
(2)列间级空调 :在机柜列间设置空调设备,如冷通道封闭空调、行级制冷机等。与机房级相比,列间级空调可实现局部冷量匹配,免去冷热通道隔离,节省机房净空。
列间级空调更利于模块化、按需部署,是现代大型数据中心的主流趋势。
数据中心的空调末端主要采用冷却盘管和送风口两种[6]:
(1)冷却盘管 :安装在机柜后门或侧面,利用冷冻水带走 IT 设备的热量。水路系统简单可靠,可实现机柜级的冷量调节。
(2)送风口 :与机房级空调配套使用,将冷风直接送入冷通道或机柜内。气流组织灵活,可根据 IT 负荷进行送风量和温度的优化控制。
传统数据中心普遍存在以下节能问题[7]:
(1)设计裕量过大,造成能源浪费。早期数据中心常按 IT 负荷的 2~3 倍设计冷源,实际运行效率低。
(2)冷通道温度设置过低,制冷能耗高。传统数据中心多将冷通道温度控制在 20℃以下,而 IT 设备可适应更高温度。
(3)冷热通道混合,局部热点时有发生。由于气流短路、通道隔离不彻底等原因,冷热空气掺混,降低送回风温差。
(4)缺乏智能控制手段,无法精确调节冷量。分散独立的空调系统缺乏协同优化,易出现冷量误差。
(1)右移制冷:适当提高冷通道温度,现行标准推荐不低于 25℃,可明显降低制冷能耗。
(2)自然冷源:合理利用外界自然冷源,如采用间接蒸发冷却、plate heat exchanger 等,减少压缩机耗电。
(3)热管背板:机柜背板内置热管换热器,将 CPU 等高热密度部件的热量有效导出,改善机柜温度场均匀性。
(4)冷热通道封闭:采用柜间空调、冷通道封闭等方式,彻底隔离冷热气流,提高回风温度。
(5)局部冷却:对热点区域实施重点冷却,避免局部过冷。如采用机柜列间空调、in-row 空调等。
(6)智能群控:通过各空调机组间的协同控制和优化调度,匹配冷量供应与 IT 负载需求。
(7)温湿度优化控制:根据机房实际热湿负荷,动态调节送风温湿度,减少过度除湿和再热能耗。
(8)变频调速:冷水泵、冷却塔风机等采用变频调速,根据负荷需求调节运行频率,避免过量供冷。
(9)废热回收利用:对机房排风进行热回收,如用于冬季取暖、夏季再生除湿等,提高能源梯级利用效率。