首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

专业数据中心机房热负荷及空调冷量计算分析及优化思路

随着数据中心的体量越来越大,数据中心的能耗也直线上升。据统计,2011年,我国数据中心总耗电量达700亿kWh,已经占到全社会用电量的1.5%,比2015年杭州市全年的总用电量640亿还多40亿。数据中心的高能耗,不仅给企业带来了沉重的负担,也造成了全社会能源的巨大浪费。绿色节能已经成为数据中心发展的必然趋势。

现有数据表明,2011年到2013年上半年全国共规划建设数据中心255个,其中近90%的设计PUE,目前国际上比较通用的数据中心能耗评价指标,PUE=数据中心总能耗/计算机设备能耗低于2.0,平均PUE为1.73。超大型、大型数据中心设计PUE平均为1.48,中小型数据中心设计PUE平均为1.80。另外,一些老旧数据中心通过采用先进制冷节能技改造,PUE也降到2.0以下。也就是说国内一座平均能耗水平的数据中心40%以上的能耗消耗在了空调制冷方面。因此,在数据中心规划阶段就须精确估算整座数据中心的能量消耗及冷量需求并有针对性地进行优化,以提高数据中心的能源效率。

空调冷量估算的方法

一般情况下,机房主要热量的来源有:计算机设备热负荷、机房照明热负荷、建筑维护结构热负荷、人员的散热负荷、新风热负荷、其它热负荷等。其中,照明热负荷在计算时要同时考虑使用系数及灯具明装、安装时发热的不同效果;新风热负荷要考虑到室外温度的变化;这两项的计算比较复杂,并且它的热负荷相对计算机设备来说非常小,可以忽略。其它热负荷主要考虑在机房内短时间工作的设备,如测试设备、清洁设备等,由于功率小,工作时间短,也可以忽略不计。且在现代化IDC数据中心机房内,设备的调试等工作基本上都可以远程完成,甚至日常巡检工作也可以由电子巡检代替,需要工作人员进入机房操作的工作已经大大减少,因此人员的散热负荷也微乎其微。

因此在计算机房热负荷的时候可以将真实情况简化,根据计算机设备的数量及用电情况、数据中心的位置、面积等因素来计算结果,并确定机房所需空调冷量。目前较通用的计算方式有面积法及功率面积法两种。

1

面积法

面积法的计算方法较为简单,直接按机房类型来估算单位热负荷P,如电信交换机房为300W/m2,数据中心机房为600-1000W/m2。P乘以面积S即得出机房总的热负荷Q,即:Q=P×S(kw)

2

功率面积法

功率面积法的计算思路是将机房热负荷Q分成两部分,其一为计算机设备热负荷Q1,网络与服务器用电量转换为热能,1W的设备功率消耗1W的制冷量,其二为除此之外的其他热负荷Q2。总的热负荷:

Q=Q1+Q2

Q1可通过设备的标称功率计算得来。Q2则需基于大量实际工程经验进行估算,Q2=K×S,K为计算系数,可根据机房所在地的气候条件、位置朝向等因素综合考虑,一般介于0.1~0.2kW/m2之间,S为机房面积。

两者相比较,面积法比较粗放,适合在机房内设备、布局方案无法确定的情况下对热负荷做一个粗略的估算;而功率面积法的计算方式相对严谨,得出的结果与真实结果会比较接近。鉴于本项目的前期规划方案做得较为细致,这里选择采用功率面积法计算。

所需的空调冷量等于总热负荷量。

本项目空调冷量的估算

本案例数据中心机房位于浙江国际影视中心综合大楼4-6层,是整个影视中心最重要的数据服务平台,承担着整个园区网络、数据核心的任务,为浙江广播电视集团各业务单位提供统一的数据服务。机房设计借鉴行业内最先进的理念,参考《电子信息系统机房设计规范》GB_50174-2008A级机房以及《TIA/EIA-942》T3标准设计。

4-6层共5个数据中心机房,面积分别为:全网数据中心机房260m2、近线存储机房190m2、数据中心机房270m2、IPTV数据中心260m2、新蓝网数据中心210m2,5个机房总面积1190m2。数据中心机房内布局采用冷通道设计,每两排机柜面对面摆放组成一个冷通道单元。

全网数据中心机房内共5个冷通道,其中1个冷通道为中密度通道,按每机柜4kW计算电量,其他4个冷通道均为高密度通道,按每机柜8kW计算用电量。近线存储机房内有主备两套数据流带库,每套需单路供电20kW。数据中心机房1内共4个冷通道,其中2个为高密度通道,按每机柜8kW计算用电量,其余2个为中密度冷通道,按每机柜4kW计算用电量。数据中心机房2及数据中心机房3内共11个冷通道,其中2个为高密度冷通道,按每机柜8kW计算用电量,5个为中密度冷通道,按每机柜4kW计算用电量,4个为低密度冷通道,按每机柜2kW计算用电量。

数据中心机房1内每个冷通道配置2个布线列头柜,其他机房内每个冷通道配置1个布线列头柜。布线列头柜最大用电功率为2kW。

在计算中,还需要考虑到设备的用电效率,即有功功率与视在功率的比值。视在功率等于网络端钮处电流、电压有效值的乘积,有功功率即计算机设备实际消耗的能量。通常情况下计算机设备的功率因数取0.9。

同时计算机设备不可能长时间保持在满负载的情况下运行,每个机架也不可能正好把规划的电量用完,因此还要考虑上设备的负载情况,根据相关研究,从计算机设备集群的层面来统计,整个集群的实时总功率不会高于其总峰值功率的72%,所以在这里设定一个设备需用系数为0.7。

计算系数在北方较低,可以取到0.1以下,而南方较高。结合本项目的实际情况,计算系数K取0.15。根据功率面积法计算结果见表1~表4。

估算结果分析及优化思路

1

估算结果分析

通过以上对本项目数据中心机房的热负荷及所需空调冷量情况的估算和分析,可以得到如下的结论:

1

本项目的估算总冷量Q为1211.7kW。此结果建立在理想条件之上,机房照明热负荷、建筑维护结构热负荷、人员的散热负荷、新风热负荷、其它热负荷等因素被统一简化为经验值K,对于K值的取值目前还是倚靠经验。以本项目为例,按K=0.15来计算,Q2总热负荷值为178.5kW,占整体热负荷的14.7%,也是一个关系到整体能源效率的重要因素,因此须结合实际情况,慎重选取适当的K值。

2

总冷量Q除以面积S之后,每m2的热负荷为1018.2W,对比面积法的单位面积热负荷P的估值范围,本项目在数据中心机房内横向比较已处于负载密度较高的水平,因此在机房整体设计及设备选型时,须采取相应的节能措施,以提高运行效率。

2

优化思路

在得到整个数据中心的热负荷估算数据之后,从计算公式中两个要素Q1、Q2着手,还可以相应采取一些策略来对数据中心的热负荷水平进行优化。

1

通过选择高效率的、带节能模式的计算机设备来降低设备热负荷,并在部署应用时尽量考虑让服务器运行的大多数时间处于高负载或无负载状态(假设无负载时设备可以自动进入节能模式)。研究表明,正常状态下的计算机系统能效在CPU利用率为30%到100%之间时都非常接近[6],尽量避免让所有设备都处于资源利用率20%以下的低负载运行状态。

2

在机房规划方案中,对其它热负荷的设计进行优化,如采用保温性能好的隔热材料和隔热工艺,提升机房隔热效果;采用低能耗高照度灯具,降低机房照明能耗,等等。

3

加强机房管理,严格控制人员进出,尽量减少对机房制冷环境的影响。

结束语

END

浙江广播电视集团国际影视中心专业数据中心机房承担着整个国际影视中心网络连接、数据交换、资源共享等任务,为各个业务单位提供统一的计算机网络平台,其规模及理念在广电行业也处于领先水平。本文对机房冷量需求计算方法进行了阐述,希望能为行业未来的机房建设提供一些思路。

作者简介

丁昕:男,1984年生,硕士,工程师,主要从事数据中心方面的研究,曾参与浙江广播电视集团全台网机房、国际影视中心数据中心机房建设等重大项目。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20171213B03QU200?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券