云计算改变着上层的应用模式,也改变着底层的数据中心结构。在云数据中心内部,IT设备的高密部署,虚拟化带来的动态负载问题,给供电、制冷带来一系列的挑战,追求高性能、低能耗的现代数据中心必须首先解决这两个问题。 《互联网周刊》记者: 安建伟 新旧年交接之际,国内云计算行业发生的几件大事掀起不小的波澜:年前,亚马逊AWS、IBM SCE+ 宣布正式入华;年后,阿里巴巴、百度、京东、蓝汛、世纪互联等10家云服务商通过可信云服务认证。国内的云计算市场在经历了几年的酝酿之后迎来了一个发展的高峰。而在国外,有统计显示2013年的IT投入中,70%的CIO首先考虑云计算;在IT服务领域,云服务的占比上升至45%。通过这些信息不难看出,随着基础设施的完善和各类应用的落地,云计算已经成为IT市场的强大力量。
《互联网周刊》记者: 安建伟
新旧年交接之际,国内云计算行业发生的几件大事掀起不小的波澜:年前,亚马逊AWS、IBM SCE+ 宣布正式入华;年后,阿里巴巴、百度、京东、蓝汛、世纪互联等10家云服务商通过可信云服务认证。国内的云计算市场在经历了几年的酝酿之后迎来了一个发展的高峰。而在国外,有统计显示2013年的IT投入中,70%的CIO首先考虑云计算;在IT服务领域,云服务的占比上升至45%。通过这些信息不难看出,随着基础设施的完善和各类应用的落地,云计算已经成为IT市场的强大力量。
云计算的实现离不开数据中心的支持,而云计算本身又在驱动着数据中心 的变革。云计算的精髓在于资源的虚拟化,IT软硬件架构与传统架构相比有很大的不同,特别是硬件的变化,主要表现为IT设备的高度集中、高发热、高耗能,驱使底层的风火水电等配套设施的作出相应改变。
数据中心的变化可以从“宏观”和“微观”两个角度去解析。在刚刚结束的2013IDC产业大典上,来自工信部的领导表示,目前数据中心呈现规模化、绿色化的发展态势。2013年8月份国务院发布的《国务院关于促进信息消费扩大内需的若干意见》提出了统筹互联网数据中心等云计算基础设施布局的发展方向,在同期发布的关于加快发展节能环保产业的意见则重点提出了开展数据中心节能改造、降低数据中心、超算中心服务器、大型计算机冷却能耗等要求。
宏观的大方向是规模化和低能耗,其核心在于追求PUE的降低,以及数据中心整体能耗的减少。然而在微观看来,在数据中心内部IT设备则朝着高密度、高耗能的方向发展。以Google的数据中心为例,Google提出“容积比”的概念,在其“指引”下,数据中心整机柜的设备密度变得很高,对电量的消耗也变得巨大,平均每个机柜的供电功率要求高达14KW。这个数字究竟有多高?据机房电源领域的专家、中达电通关键基础架构产品开发处高级经理李南介绍,传统数据中心单机柜供电功率一般在2KW~3KW之间,云数据中心单机柜一般能在7KW~8KW,而能够达到10KW就算很高了。由此可见,Google在供电功率的要求上达到一个极致。
不难看出,云数据中心对基础设施的要求首先是供电功率的提升,而机柜在高密度、高功率下的发热量又是非常大的,因此对制冷系统也提出了不小的挑战。另外,云数据中心由于虚拟化技术的应用给供电和制冷带来新的问题,即动态负载。李南介绍说,动态负载是由虚拟化技术带来的机柜负载大幅度跳变,“比如上午某机柜负载功率是5KW,而到了下午很有可能转到了其他机柜。在日常运行中,负载动态变化对供电的影响较小,对环境基础设施影响较大,尤其是制冷系统。”一般情况下,数据中心制冷的能效决定了PUE的高低。所以,电源和制冷系统是否“给力”,是云数据中心是否符合“宏观发展”的关键。
供电设计多样化 直流UPS 领风骚
数据中心对供电的首要诉求是稳定性,即保障数据中心业务稳定、安全、可靠地持久运行。当然不同的行业,对可靠性的要求也存在较大差异。李南拿传统互联网业和金融业作比较:“简单来说,如果用户浏览百度时忽然间中断几分钟,可能大部分人不以为意。但是银行则将供电可靠性视为业务安全的一部分,又提高了一个层次,一旦数据中心发生宕机,其损失和影响非同小可。”所以各类的数据中心要求是不一样的,比如IDC机房分为VIP区和普通用户区,也是根据不同客户的不同要求来建设。
云数据中心在供电设计时需要面对的问题可以概括为:设备集中、供电集中、热量集中、动态负载。李南表示,与过去相比,密度提高以后的供电设计的方法也相应发生了改变。原来的数据中心多采用集中式供电,但现在超大型的数据中心耗电量惊人,需要将原来的大集中式供电变成区域式供电,同时运营商又在尝试分布式供电(一个电源带几个机柜)。“电源有容量的限制,所以集中化带来不同的供电模式,而且这三种方式都有应用。这是设计方法上的变化。”
在可靠性标准方面,遵循TIA-942有量化的指标,而相应的方案也都非常成熟了。据李南介绍,以Tier4为例,在供电上要做双系统,即通常讲的2N系统,两条母线同时运行,当一条母线出现问题,另一条母线可以完全担负所有负载。具体到产品,直流UPS 由于减少了逆变环节,实际上提供了系统的可靠性,同时在成本上也会更低。他说:“中达电通是国内最早做直流UPS 的厂家,产品已经在某运营商部署并稳定运行3年时间。”业界普遍的看法是直流UPS 代表了UPS未来的发展方向。而对于目前没有大面积推广使用是原因,李南认为有以下几点:第一,直流UPS 尚未形成统一标准,在新的供电标准诞生之前无法满足合规性要求。第二,标准的改革牵涉各方利益,IT厂商还不愿意做过多的电源输入端的调整。第三,客户的习惯不容易被打破,虽然互联网和运营商有意愿也善于尝试新技术,但其他的行业用户由于技术较弱,所以相对保守一些。传统金融业比较特殊,比如银行的技术较强,但是由于业务的敏感性,他们不愿尝试新的技术。
多手段降低PUE 数据中心运营更给力
数据中心的可靠性非常重要,但是李南提到另外一种情形:在很多互联网企业眼里,他们更青睐降低PUE,愿意牺牲一定的可靠性换来更低的能耗。原因在于,这些数据中心长年运行,降低能耗所节省的运营成本非常客观。李南总结这些互联网公司数据中心的特点为“规模大,PUE低”。他说,在能耗方面,类似百度和Google这样的互联网公司会想很多办法去解决,比如百度尝试使用了UPS的ECO(经济模式)功能,即市电常供,出现问题后切换到电池。ECO模式带来供电效率的提高,虽然提升的量很小,但却值得百度这类规模巨大的数据中心去关注。目前国内用户很少会选择UPS的ECO功能,但国外已经比较普遍了。
这是值得云数据中心借鉴的方法。因为云计算能够实现对资源的随时调度,理论上一个节点的故障不会影响整体业务的运行。不过李南指出,供电的努力对PUE的降低非常有限,更大的发挥空间应该在制冷系统。“整个供配电系统从最前端到最后端,直流相比交流的效率提升为0.5~1个百分点。所以机房里供电的改善不是主要的,对PUE的降低贡献最大的还是冷却部分。”他说。
李南表示,在制冷上降低PUE可行的方法为:封闭冷热通道,这是投资低见效快的方法;另一种方法是使用冷冻水型的空调。毫无疑问,免费制冷是降低PUE值的最佳手段,但对选址的要求比较苛刻,并非可以普遍推广的手段。中达电通的台达机房空调节能解决方案 应用精密空调和先进的节能空调技术,精密掌控温湿度,维持机房最佳状态,节能达30%。来自ICTresearch的去年的数据显示,机房节能空调现在占比约为整体市场的50%,而在未来5-8年,节能空调的比例将占整体的市场70%以上的规模,达到28亿元左右。
李南说:“真正谈到PUE,要看两个方面,一是要看冷却怎么做,另一个要真正把能耗管理起来。”中达电通提供的台达数据中心环境监控管理系统EMS,可以做到能源动态管理,而非传统数据中心只做动力环境监控。EMS能够对整个数据中心运行以后的动态PUE进行监控,通过监控各个时段显示的PUE数据,可了解机房设备的能源消耗情况,实现PUE的实时监控与分析。目前EMS3000已经入驻陕西广播电视台,为其提供从UPS、配电、精密空调、机柜及配件到环境监控系统的InfraSuite完整解决方案。
“只有发现问题才能解决问题,所以管理是很重要的事情。你是否真正理解你的机房吗?真正了解能耗在哪?”这是李南认为的最根本的问题。