数据中心空调系统该如何节能?
qq56904799
qq56904799 Lv.2
2024年07月16日 09:48:14
只看楼主

    据统计 , 数据中心能耗已占全社会总用电量的


    据统计 , 数据中心能耗已占全社会总用电量的 1.5%~3%, 其中空调系统耗电量占数据中心总耗电量的 30%~50%[1] 。因此 , 如何提高数据中心空调系统能效 , 实现绿色节能运行 , 已成为业界关注的焦点。本文将从负荷计算、系统选型、节能策略、案例分析等方面 , 探讨数据中心空调节能的途径与实践 , 以供相关从业者参考。           
一、 数据中心冷热负荷分析      
         
1.1 负荷构成  
数据中心的冷热负荷主要来自以下几个方面[2]:
  (1)IT设备散热   :服务器、存储、网络等IT设备的发热量,是数据中心冷负荷的主要组成部分,占比可达70%以上。
  (2)照明散热   :数据中心内照明灯具的发热量,一般占冷负荷的3%~5%。
  (3)人员散热   :值守人员的代谢热和设备维护过程中的散热,占比较小。
  (4)围护结构传   热:机房围护结构的传导、辐射等得热或失热,在负荷中占比5%~10%。
  (5)新风负荷   :引入新风所需的显热和潜热处理,在夏季制冷时需考虑。
1.2 负荷计算方法  
数据中心冷热负荷的计算要点如下[3]:
(1)IT设备散热量: 根据设备额定功率、数量、机柜布置等因素估算,可乘以同时使用系数(0.5 1.0)。
  (2)人员散热量   :按每人 120W 计算,乘以人数和在场时间比例系数。
  (3)围护结构传热   量:依据机房建筑材料、面积、温差等,采用传热学方法分别计算得热和失热量。
  (4)新风负荷   :根据新风量和室内外空气状态计算显热和潜热负荷,一般按每机柜 100~300m3/h 新风量设计。
负荷计算时应对上述各项分别估算,然后以最不利工况叠加,并考虑一定裕量,最终确定空调系统的设计负荷。
 

 
二、 数据中心空调系统选型      
         
2.1 冷源形式  
数据中心冷源形式主要有风冷、水冷、蒸发冷等。风冷具有投资省、布置灵活等优点,中小型机房较常用;水冷具有效率高、噪声小、运行稳定等优势,大型数据中心普遍采用;蒸发冷适合干燥地区,可大幅节约用水[4]。冷源形式应根据数据中心的规模、气候条件、水资源等因素综合选择。
2.2 空调方式  
数据中心的空调方式大致分为机房级和列间级两大类[5]。
  (1)机房级空调   :将冷量直接送入机房内,常见的有空调机组、close coupled 空调器等。
  (2)列间级空调   :在机柜列间设置空调设备,如冷通道封闭空调、行级制冷机等。与机房级相比,列间级空调可实现局部冷量匹配,免去冷热通道隔离,节省机房净空。
列间级空调更利于模块化、按需部署,是现代大型数据中心的主流趋势。
2.3 末端形式  
数据中心的空调末端主要采用冷却盘管和送风口两种[6]:
  (1)冷却盘管   :安装在机柜后门或侧面,利用冷冻水带走 IT 设备的热量。水路系统简单可靠,可实现机柜级的冷量调节。
  (2)送风口   :与机房级空调配套使用,将冷风直接送入冷通道或机柜内。气流组织灵活,可根据 IT 负荷进行送风量和温度的优化控制。
末端形式的选择要兼顾机房布局、热源分布、施工条件等因素。大型数据中心一般采用上送下回的方式,利于气流组织。
 
三、数据中心空调节能问题
        
数据中心空调的能效为何如此之低?通过对当前数据中心的研究发现,大多数数据中心的空调系统都存在着如下一系列的设计问题。  

 
1、 系统整合难、切换难、维护难。  
为了服务器工作人为营造低温环境,完全采用人工制冷,没有利用自然冷源自然冷却。改进冷源形式往往是最为经济有效的节能方法,制冷机在空调系统中耗电最大,以冷却塔免费供冷代替制冷机,依靠自然冷源提供冷量,会使空调系统的整体运行能耗大幅下降,是效果显著的节能途径。而在实际应用中,采用自然冷源存在系统整合难、切换难、维护难的特点,所以目前国内只有少部分的大型数据中心成功有效的使用了该技术。  

 
2、没有充分利用空调系统的诸多节能技术。  
空调系统中节能效果突出的余热回收、蓄冷、变风量、变频等技术,在数据中心中很少采用。因为数据中心所其提供服务的特殊性,数据安全是首要因素,宕机是不允许出现的情况。空调系统作为服务器正常工作的保障,管理者更关注其制冷能力是否有足够的冗余量,某台空调发生故障时能否及时开启备用设备,对设计的要求必然保守。而节能技术需要积少成多、其效果需日积月累才能体现,如果担心某技术对空调的稳定性可能产生影响,往往倾向于不采用。  

 
3、空调设备制冷量与实际负荷的匹配存在问题。  
机房内的机架通常是逐步投入、不断扩容的,而空调负荷与气流组织则是建设阶段对机房整体考虑设计的。运行初期投入使用的机架数少,空调系统部分负荷下运行,效率不高。而后期投入使用的新型的机架,往往功率更大,发热密度更高,却受制于机房现有格局,不能被摆放在气流组织有利的位置。这样,随着机架不断进场,机房内始终冷热不均,管理者只能调低空调机的温度设定值,造成过度制冷,导致空调能耗居高不下。  

 
4、设计选用的空调机型参数与机房运行时的真实热工况存在偏差。  
据调查发现,目前约 85%的数据中心空调机组耗能比设计工况高 50% 以上。现行数据中心设计均参照的是国标《电子信息系统机房设计规范》及美国 TIA-942 标准,精密空调机组的设计运行温 / 湿度为 23℃±1℃/50%,加之现有精密空调生产厂家所提供的室内机回风工况参数多为 24℃/50%。  
故空调设计时多按照此工况点进行选型。而服务器机架的发展趋势是高度集成化,单个机架的功率越来越大,机柜出风口温度很高,实际运行中很容易出现局部温控点温度超标的现象,应对办法就是将空调机组设定的回风温度 24℃ 调低。  
假如调低空调机组设定温度 2℃, 那么按回风参数24℃ 选型出来的空调机组对应 22℃ 的工况点,直接膨胀式空调压缩机 COP 值会下降约 7%,显冷量会下降 8%~19%,冷冻水式空调机组的显冷量会下降 13%~16%。因机房负荷全部是显热负荷,则能耗增加了大约 15%~25%。若继续调低空调机运行工况参数设定点,对应的能耗会呈现非线性的增长。  

 
( 5)精密空调机组温湿度一起控制的模式,造成了先除湿再加湿的能耗浪费。  
在干球温度 23℃,相对湿度 50% 的室内状态点,露点温度为 11.9℃,空气经过表冷器时降温除湿。而机房运行过程中基本无散湿量,所以空气湿度降低,超过设定下限后空调自动开启加湿功能,此时加湿器给空气等温加湿,增加了空调潜热冷负荷,空调能耗显著上升。       


四、 数据中心空调节能策略      
         
4.1 面临的问题  
传统数据中心普遍存在以下节能问题[7]:
(1)设计裕量过大,造成能源浪费。早期数据中心常按 IT 负荷的 2~3 倍设计冷源,实际运行效率低。
(2)冷通道温度设置过低,制冷能耗高。传统数据中心多将冷通道温度控制在 20℃以下,而 IT 设备可适应更高温度。
(3)冷热通道混合,局部热点时有发生。由于气流短路、通道隔离不彻底等原因,冷热空气掺混,降低送回风温差。
(4)缺乏智能控制手段,无法精确调节冷量。分散独立的空调系统缺乏协同优化,易出现冷量误差。
针对以上问题,数据中心空调节能应从需求侧和供应侧两个方面入手,通过负荷匹配、温度优化、气流组织、智能控   制等措施,最大限度地提高系统效率[8]。
4.2 具体措施  
(1)右移制冷:适当提高冷通道温度,现行标准推荐不低于 25℃,可明显降低制冷能耗。
(2)自然冷源:合理利用外界自然冷源,如采用间接蒸发冷却、plate heat exchanger 等,减少压缩机耗电。
(3)热管背板:机柜背板内置热管换热器,将 CPU 等高热密度部件的热量有效导出,改善机柜温度场均匀性。
(4)冷热通道封闭:采用柜间空调、冷通道封闭等方式,彻底隔离冷热气流,提高回风温度。
(5)局部冷却:对热点区域实施重点冷却,避免局部过冷。如采用机柜列间空调、in-row 空调等。
(6)智能群控:通过各空调机组间的协同控制和优化调度,匹配冷量供应与 IT 负载需求。
(7)温湿度优化控制:根据机房实际热湿负荷,动态调节送风温湿度,减少过度除湿和再热能耗。
(8)变频调速:冷水泵、冷却塔风机等采用变频调速,根据负荷需求调节运行频率,避免过量供冷。
(9)废热回收利用:对机房排风进行热回收,如用于冬季取暖、夏季再生除湿等,提高能源梯级利用效率。
    

免费打赏

相关推荐

APP内打开