专栏首页腾讯数据中心数据中心“能源”成本管理五招

数据中心“能源”成本管理五招

要管好数据中心,必然需要理清纷繁复杂的成本问题。在数据中心的总开支中,“能源”(主要指电费、水费和柴油费用)为总支出的“中流砥柱”,其中又以电费为最主要开支。“擒贼先擒王”,节约数据中心的能源成本中的电费支出,是数据中心成本节约工作的重中之重。

数据中心节能管理套路,将由若干的招式组成,本文将围绕如何节约“能源成本”开展叙述,介绍节约数据中心“能源成本”入门五招。

第一招:建立属地能源成本基线

基线之于管理的意义不言而喻。没有基线,我们不会清楚某个数据是否为异常数据,哪里呈现过尖峰或瓶颈,哪些优化产生了多少实际效果这些重要问题。

能源成本基线可以是一维基线,也可以是多维基线(例如PUE与设备总量、IT/基础设施设备负载、空调温度等关键参数之间的关系)。

第二招:关注“功率因数”和“负载阻抗特性”

数据中心的“功率因数”和“负载阻抗特性”是体现供电系统运行情况的重要指标,“功率因数”通常可以用PF表示,这个数值越接近1越好;数据中心负载阻抗特性有“感性”和“容性”两种表现形式,通常情况下应表现为感性。

某机房一组变压器的功率因数突然由0.99(感性,正常)变成了0.7(容性,异常)。(ps:由于负载阻抗特性已显容性,此时补偿柜也无作用)。这种变化,一方面导致数据中心整体耗电量增加,进而使数据中心整体耗电量增加(服务器耗电量 W=V*A*PF,W为常量,若PF下降,V不变,则A增加),另一方面电力局会对功率因数小于0.9的用户加收一定比例的惩罚性电费,经跟进发现该问题是UPS电容滤波低负载启动所导致,最终问题解决,PF回复至较高水平。

这个案例中我们可以发现,数据中心的“功率因数”和“负载阻抗特性”是两个非常关键的电力系统运行参数,直接影响电费支出,在日常运营中必须长期密切关注。通常数据中心的功率因数不应低于0.95,负载阻抗特性应为感性,一旦出现异常应尽快跟进解决,避免支付额外电费。

第三招:冷热通道隔离

冷热通道隔离至今已是全行业的共识和新建数据中心的标配。本文只提及两个容易被忽略的问题:封堵冷热通道漏洞和冷热通道隔离在老机房中的简单实现。

1.封堵漏洞

被广泛提及的“通道隔离”只不过是一个框架,把冷热通道从大面上隔开,但如果这个隔断“千疮百孔”则它形同虚设。设置冷热通道隔离挡板只是万里长城的第一步。日常运营中,没有上设备且没有用挡板格挡的机架,横跨房间甚至建筑的走线架,一列即家中密封不严的柱子,都会成为吞噬数据中心电费的黑洞。

2.简单实现隔离

很多老旧机房在设计之初未考虑冷热通道分离,且至今尚未用这种方式。因为在运营机房做“建设改造”的风险极高,大部分数据中心管理者对改造老机房望而却步。实际上业界有很多案例可供我们参考,下图一个简单的塑料链子就解决了问题,工程量小,改造成本低,这种性价比较高的改造方式值得我们借鉴。

第四招:良好的温湿度管理

制冷系统是除了服务器之外的第二用电大户,其耗电量可以占到数据中心耗电总量的35%。

运行参数的设置不仅决定了空调系统的运行情况,更决定了整个空调系统的耗电量。空调系统的运行参数成千上万,归根结底就是为了两个核心参数——数据中心IT设备入风口的温度和湿度服务。合理的温湿度设置对空调的能耗意义重大。

1.提升数据中心温度

目前的数据中心的国家标准(GB50174-2008)定义了数据中心的温度为23±1℃。根据笔者经验,国内数据中心,尤其是传统运营商租用数据中心基本都小于等于国家标准,时长有20℃甚至更低的温度,除了局部热点几乎没有25℃及以上的情况。在保证数据中心合理运行的前提下,提升数据中心温度在成本方面将为我们带来以下收益:1.延长自然冷却时间:以深圳某年气温数据为例,该年外界温度≤20℃的天数仅为全年天数的13.7%,可见如果送风温度设置为20℃以上,则说明全年符合自然冷却条件的时间仅为13.7%,而86.3%的时间必须机械耗电制冷。如果将送风温度提升27℃,则全年可以自然冷却的时间增加到了56.2%;2.降低冷机能耗:如果外界温度不足以进行自然冷却,而需要冷机启动运行,设置的制冷温度越低,冷机需要消耗的能量越多。在我们目前的实践经验中,冷机供水温度每升1℃,冷机系统功耗可以下降3%。

2.放宽数据中心湿度

数据中心的加湿原理是将水加热,通过消耗大量电能,使水由气态变为液态。可见,无论加湿还是除湿,只要是对数据中心湿度进行控制管理,必将消耗大量电能。

幸运的是服务器本身对湿度不敏感,无需频繁进行湿度管理。以下分别节选了服务器和数据中心的国家标准作为佐证。不幸的是,国内某些数据中心不按国标执行,使得数据中心内频繁和无效的执行湿度管理操作,甚至发生过一个房间中部分空调在加湿而部分空调在除湿的情况,铺张浪费能源。

第五招:合理的设备开启数量

这是我们在传统下送风精密空调机房中发现的一个有趣的现象。某天我们发现某机房某列机架温度为24℃,高于周边其它机架(18℃),在我们关闭了这一列机架对应的空调之后,它的温度却下降到了18℃。关闭空调反而使机房温度下降了,这不符合我们“空调开得越多制冷效果越好”的惯性思维。举一反三后,提问:开1台冷机真的比开2台节能吗?开1个水泵真的比开2个节能吗?……面对实际问题,我们要学会拆掉思维里的墙,实践检验真理处处适用。

小结:规划决定了数据中心运营成本的先天基因,而良好的运营则是实现预期目标的最基本保障。没有良好的运营,即使业界一流的规划方案,也跑不出业界一流的成本数据。反之,一流的运营或许可以让老机房跑出新的春天。运营细节尽显真功夫,希望本文所介绍的成本定义,以及节能五招能为各位数经带来精细化成本管理新思路。

版权声明:本文为腾讯数据中心原创,欢迎转载,转载需注明出处并保持原文(包括标题、导语、正文、图片、数据以及文尾的二维码、版权声明等全部内容)完整。版权均属“深圳市腾讯计算机系统有限公司”所有,未经官方授权,不得使用。

本文分享自微信公众号 - 腾讯数据中心(Tencent_IDC),作者:腾讯数据中心

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2016-03-18

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • ;中国数据中心引领者高端访谈——朱华

    【PConline 高端访谈】数据中心在我国虽然开展较晚,但发展非常迅猛,据统计,目前我国已经有超过40万个数据中心,而在这高速发展的背后,我国数据中心建设正面...

    腾讯数据中心
  • 广邀天下英才,共建四季风采

    ? 夏乘凉风秋赏月,春迎百花冬傲雪。 若看数据中心景,遍赏四季好时节。 说起数据中心,你是否马上联想到一列列的服务器、一条条的光缆。今天跟着小编一起,让我们走...

    腾讯数据中心
  • 【盘点】重磅推荐!腾讯数据中心2015年度干货榜单

    腾讯数据中心微信公众号的粉丝团体,在2015年迅速地从6000+扩大至20000+。每周我们慎重筛选精心编辑的推文也至少有上千阅读数、上百转发收藏量。每每看到数...

    腾讯数据中心
  • 数据中心整合会导致更高的云价格吗?

    如今,大规模的数据中心市场整合并购正在美国各地开展。近年来,Digital Realty公司收购了杜邦Fabros技术公司。CenturyLink公司收购了Le...

    企鹅号小编
  • 广邀天下英才,共建四季风采

    ? 夏乘凉风秋赏月,春迎百花冬傲雪。 若看数据中心景,遍赏四季好时节。 说起数据中心,你是否马上联想到一列列的服务器、一条条的光缆。今天跟着小编一起,让我们走...

    腾讯数据中心
  • 新基建的冷思考:大数据中心为何如此重要?

    2020年伊始,跟新基建相关的政策就接踵而来。前有3月4日国家决策层明确要求加快5G网络、数据中心等新型基础设施建设进度的要求;后有《关于构建更加完善的要素市场...

    大数据在线
  • 数字新基建成本优化:从谷歌DeepMind实践我们体会到了什么?

    近日新基建、数字新基建的标题到处飞,几天前信通院发表了一篇《“新基建”数据中心能否摘掉“能耗大户”的帽子?》的文章。

    FB客服
  • 转换理念构建未来需要的数据中心

    宇众小添
  • 2020年数据中心值得关注的8大趋势

    随着网络、云计算的发展,数据中心市场在以下方面正悄悄变化着:未来市场的所有者是谁、技术创新趋势、以及客户购买和管理数据中心产品的方式。由于新物联网设备和边缘计算...

    SDNLAB
  • 未来数据中心的演变是否从1到0

    一处数据中心是企业组织容纳其各种业务关键应用程序和数据信息的物理设备。因此,从长期来看,随着技术的不断发展,如何保持数据中心的可靠性和安全性对于企业组织而言无疑...

    宇众小添

扫码关注云+社区

领取腾讯云代金券