好有缘导航网

数据中心 PUE 值的未来:趋势和预测 (数据中心pue值标准)


文章编号:16271 / 分类:互联网资讯 / 更新时间:2024-05-10 17:19:29 / 浏览:

引言

数据中心的能源效率对于可持续性和运营成本至关重要。电源使用效率 (PUE) 是衡量数据中心能源效率的关键指标,近年来一直备受关注。

PUE 值的趋势

近年来,PUE 值一直在稳步下降,原因有以下几个:

  • 硬件技术的改进,包括更节能的服务器和存储设备
  • 数据中心PUE值的未来趋势和预测数据中心
  • 数据中心设计的优化,例如提高气流效率和利用散热技术
  • 可再生能源的采用,例如太阳能和风能

预测

预计未来 PUE 值将继续下降,主要受以下趋势的推动:

  • 液冷技术的普及:液冷系统比风冷系统更有效,可以显着降低 PUE 值。
  • 人工智能的应用:人工智能可以优化数据中心操作,例如通过预测负载并调整冷却系统。
  • 可持续性意识的提高:企业越来越意识到数据中心较低的 PUE 值可以节省能源成本、提高环境可持续性和提高数据中心可靠性。通过遵循最佳实践和采用新技术,数据中心运营商可以降低 PUE 值并提高运营效率。

全面推动数字经济再发展,竟然需要它的加持力!

随着数字经济的持续发展,社会各领域呈现出数据处理需求爆炸性增长的态势,随之而来的是互联网数据中心的迅猛发展。但我们也必须看到,隐藏在这一片繁荣发展景象的却是能源消耗巨大的危机。

数据中心是数字经济发展的基础设施,其快速发展有效地推进了数字经济的蓬勃发展。相关研究数据显示,数据中心的数量处于持续增加的状态。2019年,中国数据中心的数量已达到7.4万个,其中,业已建成的大型和超大型数据中心的数量约为12.7%。而中国数字经济的增加值规模也已经从2005年的2.6万亿元发展至2019年的35.8万亿元,数字经济在GDP(国内生产总值)中所占的比重也从2005年的14.2%逐渐增加至2019年的36.2%。

不可否认的是,数据中心的迅速发展,既推进着繁荣的诞生,同时也在衍生出环境污染、能源消耗、资源浪费等一系列问题。

相关数据显示,2018年,全国数据中心的总用电量达到1608.89亿千瓦时,占中国全社会用电量的2.35%;预计至2023年,中国数据中心总用电量将达到2667.92亿千瓦时,年复合增长率达到10.64%。除了耗电量高之外,数据中心使用的大比例化石能源所带来的空气污染与碳排放问题也尤为突出。比如,在2018年的用电总量中约有1171.81亿千瓦属于火电。而在使用这部分电量的过程中,共计排放了9855万吨的二氧化碳、2.34万吨的二氧化硫、2.23万吨的二氧化物和0.49万吨的烟尘。这组数据展示出的问题是非常严重的,由此衍生出的负面影响更是值得各界人士重视的。

为了解决这个问题,国家近年来陆续出台了一系列相关政策,积极引导全国各地的数据中心一齐朝着绿色节能环保的方向有序发展。

2019年,《关于加强绿色数据中心建设的指导意见》发布,提出“ 到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的电能使用效率值达到1.4以下,高能耗老旧设备基本淘汰,水资源利用效率和清洁能源应用比例大幅提升,废旧电器电子产品得到有效回收利用 。”可见,国家对于数据中心的能源消耗情况予以了高度的关注。

2020年8月,国家工信部、发改委、商务部等六个部门发布《关于组织开展国家绿色数据中心(2020年)推荐工作的通知》,联合组织开展2020年度国家绿色数据中心推荐工作,其中能源资源使用情况在评价指标分值中的权重达到了67%。此外,国家还要求各地依据《绿色数据中心评价指标体系》,在数据中心的重点应用领域(如:生产制造、电信、互联网、公共机构、能源、金融、电子商务等),选出一批优秀的数据中心进行推荐。其中,能效水平高、技术先进、管理完善、代表性强,“具有清晰、完整的物理边界,拥有独立的供配电和符合《绿色高效制冷行动方案》要求的制冷系统”,这些内容被视为各地推荐数据中心时必须考量的一些因素和条件。

在这样的政策背景和市场条件下,开发新型技术及运作模式,提升数据中心的效率,并降低能耗,这已经明显成为行业发展的大势所趋。

时下,降低能耗已明显成为数据中心建设的首要目标。部分数据中心通过开发风能、太阳能等各类可再生能源,来实现绿色节能目。同时,也需要探索新型节能技术(比如制冷节能技术、虚拟化技术、高压直流供电技术、变频技术等各类技术),来支撑绿色数据中心的建设。

技术应用:强悍制冷的浸没相变液冷技术

数据中心的制冷系统依然以风冷为主,但这种传统方式已经很难实现节能目标 。 浸没相变液冷技术将所有计算部件浸没于液态冷媒中,通过液体相变为气体带走热量。这种技术能够将系统性能提升5%,同时将PUE(数据中心总设备能耗)降至1.04(全球数据中心PUE平均值约为1.58,PUE值越低,说明数据中心越节能)。

我们可以这样理解:如果采用这种技术,只需要40瓦的功率,即可冷却1000瓦的设备;而如果采用风冷技术系统,要想实现这一冷却目标,则需要消耗的功率约在500瓦至1000瓦。如果国内所有数据中心都采用这种浸没液冷技术转化产品,那么每年节约的电能可达到400亿千瓦时,约为三峡电站目前全年发电量最大值的39%(2018年的发电量为目前的最大发电值——1016亿千瓦时)。

技术应用:脑洞大开的水下数据中心部署

2014年,一位微软员工大开脑洞,提出了构建水下数据中心的想法。为了更好地落实这项决策,微软与在潜艇制造方面颇有经验的法国Naval集团联手,共同建造了一个大型水下数据中心。他们采用了原本用于冷却潜艇的热交换过程来为12个服务器机架实施冷却降温,此外还配备了864台服务器和冷却系统基础设施。

2018年6月,这个代号为“Northern Isles(北方群岛)”的水下数据中心在法国组装完毕之后,被迅速地部署在苏格兰奥克尼群岛附近的海底。接下来,微软的项目团队持续密切关注该数据中心的运作情况,并从能耗、内部湿度、声音以及温度等方面进行了全面的、专门的监测。目前,该项目技术的应用与验证效果尚未公布。

总体而言,无论是从经济效益还是环境效益来说,尖端科技具有多样化场景化应用的天然优势。因此,当人们尝试将尖端科技的力量加持于数据中心能耗问题处理之上,必然可以带来更多的问题解决逻辑和场景优化的可能性,这也是人们积极地打开脑洞、为各类尖端科技探寻落地路径的根源所在。

编者注:在这个蓬勃发展的新经济时代,尖端科技的现实落地、环保节能产品的转化应用,这已经成为关键的社会生产与发展要素。我们希望,有更多领先技术的研究者、组织机构、生态伙伴都能够积极参与到电子节能产品转化与技术转移的建设中来,全面推进国家的经济建设。

参考资料:

[1]《点亮绿色云端:中国数据中心能耗与可再生能源使用潜力研究》. 国际环保组织绿色和平与华北电力大学联合发布

[2]《厉害了,微软要在海底建立数据中心》. 柠萌编译,都保杰编辑

[3]《中国公司“黑科技”突破了计算机节能极限》.[4]《曙光“全浸没液冷”技术让节能不再“靠天吃饭”》. 环球科技

[5],侵删。

如果喜欢,请点赞、关注哦!

“双碳”下IDC行业发展趋势

IDC全称为Internet target=_blank>

全球IDC行业建设现状:向着大型化、集约化发展

2010年以来全球数据中心平稳增长,从2017年开始,伴随着大型化、集约化的发展,全球数据中心数量开始缩减。据Gartner统计,截至2020年数据中心共计42.2万个,初步核算2021年全球数据中心数量进一步下降,在41万个左右。

以超大规模运营商的大型数据中心数量角度来看,随着行业集中度的逐步提升,全球超大型数据中心数量总体增长。据Synergy Research Group的最新数据,截至2021年超大规模提供商运营的大型数据中心总数增加到700个左右,较2020年同比增长17.25%。根据Synergy Research Group最新预测,凭借目前已知的314个未来新超大规模数据中心的规划,运营数据中心的安装基数将在三年内突破1000个大关,并在此后继续快速增长。

注:2021年数据截止2021Q3。

全球IDC行业市场规模体量:数据量的爆发增长带动市场规模发展

随着物联网、电子政务、智慧城市等领域的发展以及云计算的发展也将进一步推动IDC领域的发展。依据IDC发布的《数据时代2025》报告,随着5G、物联网的发展,2010-2021年数据呈现爆发式增长状态,2020年全球数据量为60ZB,初步统计2021年达到70ZB;预计2025年全球数据量将达到175ZB。

数据量的爆发式增长使得市场对IDC行业愈发青睐,据中国信通院的数据显示,2017-2021年间,全球IDC市场规模均保持正增长,且年均增速在10%左右。2021年全球IDC行业市场规模为679.3亿美元,同比增长9.9%。

全球IDC行业市场前景预测:即将迎来其新一轮的发展机遇

可以预见,在未来几年,IDC产业将迎来其新一轮的发展机遇。此外,随着网络系统日趋复杂,伴随网络的带宽逐步提高,用于网络维护的成本投资逐步增加,网络管理难度也在日益加大,在这种情况下,以资源外包的网络服务方式逐渐受到企业重视,并取得长足的发展。另外,各国政府加大了对电信宽带的投资力度,促进电信和互联网的融合。根据中国信通院预测,2022年全球ID行业市场收入将达746.5亿美元,增速总体保持平稳,2022-2027年年复合增长率在10%左右,到2027年行业规模将超过1200亿美元。

—— 更多本行业研究分析详见前瞻产业研究院《中国IDC(互联网数据中心)市场前瞻与投资战略规划分析报告》

数据中心能耗指标

数据中心能耗指标主要是用于评估数据中心的能源利用效率和节能性能。以下是一些常见的数据中心能耗指标:电能利用效率、碳排放量、能效比、能源回收率、负载率。

1、电能利用效率(PUE):PUE是数据中心能耗评价中最常用的指标,它是用来衡量数据中心能源消耗的效率。PUE值的计算公式为:总设施能耗(千瓦时)/IT设备能耗(千瓦时)。理想的PUE值越低,表示数据中心的能源利用效率越高。

2、碳排放量:碳排放量是指数据中心在运行过程中产生的二氧化碳排放量。较低的碳排放量表明数据中心对环境的影响较小。

3、能效比(CUE):CUE是数据中心制冷系统能耗评价的一个重要指标,它是制冷系统总能耗与IT设备能耗之比。CUE值越低,表示制冷系统的能耗越低,效率越高。

4、能源回收率(ER):能源回收率是指数据中心在制冷、散热等过程中回收再利用能源Total Energy的比率。ER值越高,表示数据中心的能源回收效果越好。

5、负载率:负载率是指数据中心的实际运行负载与设计负载之间的比率。较高的负载率可能导致数据中心能耗较高,而较低的负载率可能意味着数据中心能源利用不充分。

影响数据中心的PUE值有哪些要素

PUE不大于1.4在空调技术上是可行的。 制约PUE的,我认为,现阶段主要是冷却技术、空调技术、如何高效排热的问题。 贴一个清华大学江亿院士的演讲: 各位来宾、各位专家、各位领导早上好!我好象是第一次参加绿色数据中心的技术大会,因为咱们不是搞计算机这行的,是搞空调,搞建筑节能的,但是好象也慢慢把我们推到这个行业了。 为什么?是因为空调的能耗或者说派热降温的能耗在数据中心里占了比较大的比例。 所以,刚才我听前面这位领导讲数据中心都快到了运行这个程度了,运行主要是能源消耗,能源消耗里就40%或者更多是空调的能耗。 所以,怎么能够降低空调的能耗,一方面给国家的节能减排作贡献,一方面也使我们数据行业产生更好的经济效益,就变成重要的问题了,所以我今天跟大家汇报一下我们在这方面的想法跟体会。 从空调的特点来看,现在随着计算机电子技术的发展,芯片技术都比原来高,主机的发热度越来越大,这样导致空调排热成为这里面大的部分。 后面有一些细的发展状况不说了,就直接看到空调里头。 现在统计大致的结果,对于中小型的数据中心大概PUE值都在2,或者以上,这是空调占了一半或者还多的一个能源消耗。 对大型的IDC机房管理做的比较好的,这时候空调效率相对比较高,但是也能占到40%左右的能耗。 所以,降低数据中心的能耗可能一个是提高服务器的使用效率,没活儿的让它歇着,一方面减少了空气的运行能耗,当然,电源也有可以提高的技术。 空调应该有很大的潜力,空调里面的能耗由什么构成?以前一想说制冷机,压缩机耗电多,实际上压缩机耗电在50%-60%左右,除了压缩机之外,风机也能占在40%或者更多的空调耗能。 现在的情况什么样?大概有这么几块:第一、因为全年制冷,所以绝大部分的数据中心制冷机都开了,这是一年来总的空调的考点状况,可以看出冬天、夏天区别很少,北京、上海、广州冷的地方,热的地方区别很少,应该说冬天天凉了,北京空调越来越大幅度下来,这个变化也不大,所以全年度在这儿用。 然后,有关发热密度非常大,负责把这些热量排走,所以循环风特别大。 并且风吹的还厉害,不行把风量减少,降低送风温度,但是当冷源温度低于屋子里温度的时候,蒸发器就凝水,恨不得天天都出湿,出了湿又怕屋子里太干,所以又有了一些加湿器,这边除湿,那边又得加湿,又得用电,冬天大冷的天还得制冷,这构成了现在数据中心,无论是大的,还是小的空调能源消耗高的主要问题。 有这样问题是坏事儿,反过来又是好事儿。 说明咱们在这儿的潜力特别大,有很大的潜力可以把空调能源消耗降下来。 那么,走哪条道?怎么做?一听说这个空调跟你们建筑节能是一码事,建筑节能都抓围护结构保温,咱们整这个,围护结构,效果非常小,或者无效果,为什么?因为一个IDC密一点的机房一平米大概产热量3-5千万,通过围护结构进入或者出去的热量不会超过折合在占地面积上不会超过50瓦,所以,围护结构的影响很小,就是1%,2%的影响。 当然,通过一些技术,避免外墙直接太阳辐射,比来我这儿热,再拿太阳照我,尽可能的密闭,别让风进来,这是很重要的。 可能有些专家说,风渗进来,有什么不好,如果房子做的不密闭,就是不可控制的室外渗风,是凉快了,但是湿度下降了,夏天热容器不好,而且由于室外的湿度变化大,我数据中心里面希望湿度维持基本稳定不变,给我添加湿、除湿的麻烦事儿。 因此,通过各方面应该把房子做密闭了,对目前来说不是保温的事儿,而且密闭的事儿,密闭最重要。 那么,怎么把热量排出去,马上前几年一些企业想办法说既然冬天不开制冷机,而且外边凉,最简单的通风换气吧,是通过凉风进来,把热量排走,这是有点节能,但是恐怕数据中心这么做不太合适,为什么?室外的灰尘赃,机器得干净,湿度室外是变化的,夏天北京的一立方米空气有2克的水汽,另外中国是烧煤的国家,70%的化石能源都来自于煤,燃煤就出硫,硫化物到室内,就会导致表面发生腐蚀现象,所以这是不行,您的冷却系统是为主机服务的,要是有损于主机,无论是灰尘还是硫化物,还有湿度都会影响主机的寿命,这是绝对不能有的。 因此,说就想法通过过滤消除灰尘,想法加湿、除湿改变湿度,想法脱硫,当把这些东西都架上,就发现投入的成本和能源消耗就不低了,而且维护管理的工作量立刻上去了,那么这么大的数据中心要求高可靠性运行,于是这事儿有点别扭了。 还有通过热交换把凉气取回来,这个思路是挺好,对于一些小规模的计算中心,像一个大楼里的数据中心有时候还可以,但是对于大规模的机房是无法实现的,是因为直接走风道这么大发热量得有多大的风量直接室外来回换气,风道的体积在那儿摆着不合适,然后维护工作量非常大,尤其还是赃。 所以,室外的低温必须想法用上,是通过室外的新风,怎么通过某种能量凉下来,最后把机器里面的热量带走。 所以,整个的数据中心的空调跟咱们楼里的空调概念不一样,它的核心事儿就是怎么把芯片那儿出来的热量通过某种介质传热,传完之后,几次交换,最后导到室外去就这么一个任务。 所以,这时候根本目标就是让芯片的温度不要超过标准温度,然后把这个温度排出来。 这样芯片表面温度和冷源温度的差跟热阻成正比,就是怎么把这个等效热阻降低了核心的事儿就变成了这么一个问题。 温差小就是如果我芯片温度不许超过40度,如果我的温差是20度,只要室外温度低于20度,我就不用开冷空气就可以把热量排走,所以就要减少等效热阻。 那么,这个等效热阻由什么构成?发现就像咱们的一个中国络,三个电阻,三个等效热阻,哪三个过程?一个就是芯片跟空气之间的换热环节,这个差越大,温差就越大,比如我可以取平均温度,等效热阻就是这块面积除以热量,第一个环节就是容器跟芯片表面换热的环节。 第二个环节,比如说我有一个精密空调跟水,或者室外的冷水换热,这冷水跟容器之间的换热环节,我们叫输送与换热热阻。 第三个环节,循环介质与冷源之间换气,叫做冷源换热热阻。 比如说室内温度到20度,实际只欠10度的温差,这时候冷空机提供的活儿就是这10度的温差。 所以,把热阻减少了,无论是用自然冷源还是开冷风机都可以降低功耗。 因此,核心的问题就是把这三个环节的热阻降下来。 所以,就三个关键,第一、降低热量采集过程的热阻,同时不增加风机电耗。 第二、降低热量传输过程中的热阻,同时不增加传输电耗。 第三、找到温度更低的自然冷源,但是别破坏环境。 下面逐条看,采集过程中的热阻,实际的采集热阻,除了空气跟芯片换热之外,还有相当大的消耗是机房里面冷风跟热风的互相搀混,制冷机就是把冷风热的温度分开,分出冷热风,这个屋子里面又没地儿跑,又搀混起来了,所以避免冷风热机的搀混。 比如说要是给定芯片温度,当搀混小的时候,回风温度可以更紧的接近芯片,如果我恒定芯片温度回风少的时候,这样就可以更大程度的利用这个资源。 有一些实测的数据,是在大的IC机房里实测的,大家可以看出来,比如冷通道进来,从机房送出来应该这儿是16点几度,到这儿怎么就能30多度呢?它这儿上面还有一块挡,这30多度是哪儿来的?就是因为部分的过了服务器之后,服务器里面有空档,空档的热风又渗回来了,热风跟这些东西搀混到这些地儿,能到35度。 为了保证上面服务器的这些效果,于是就得降低送风温度,为了保证上面差不多,结果把这个温差就拉大了,导致整个的冷交热的增加。 所以,这儿看着排风有40度的,这些排风35、36度,总的到空调下一看,派风温度才28度,怎么降下来了?就是凉风过去跟热风搀和起来了,这样芯片大概在45度以上。 如果避免了这些混合之后,就可以把回风温度很容易提高到35度,输送温度也可以提高到20度,保持芯片温度最高的温度不变,于是这温差小多了,采集的等效热阻下来了。 当然,具体计算可以拿出温度差仔细算出来知道什么毛病,总的指导思想是这样的。 所以,在机柜顶部架一些挡板,这样能够有点改善。 但是由于金桂内刀片式服务器之间不可避免存在气流短路现象,因此,仍存在短路现象,使冷气流通道内有旁通过来的热气流,热气流通道内也会有旁通过来的冷气流。 还有就是直接把换热器安装在机柜内,在机柜内或者机柜旁制备冷空气,可以有效减少掺混这样现象,降低热量采集过程温差,可以减少风量、丰足,大幅降低风机电耗。 所以,这是很重要一条,但是不能让柜子出水。 这样有一种做法,就是采用背板冷却,将空调系统热换器安装在装载IT设备的机柜上,根据机房内各个不同的机柜实现按需供冷,避免局部热。 分布式制冷系统使空调系统的吸热端更接近热源。 这是第一个减少采热采集过程中的热阻。 第二减少输配过程中的热阻,实际这个环节比如一条空调器,是空气跟水的换热,那么空气温度是这样的,水温度是这样的,就会看到有时候往往都不是平衡的,是带三角形性质的,只要带三角形性质,就浪费一部分温差。 所以,想法调整两边的流量,使得两边的温差接近,可以有效的降低数配系统的等效热阻,或者减少等效温差。 有时候说是由于我用背板,或者机柜里的换热器那里面不是走水,无论是走二氧化碳,还是走氟利昂,这是机柜内送派风温度,这是热管温度,这是室外侧进出口温度,是这么一个过程,(如图所示),还有一种换热器,每排的热管单独连接,这时候室内室外的温度就变小多了,尽管换热面积一样,它就强多了。 当然,这样会导致热管布置起来要复杂,但是在二者之间,总有一个好的权衡去减少输送过程的热阻或者说降低它的温差。 第三条就是到底我们用什么样的室外的自然冷源和怎么把这自然冷源跟我的机械制冷有机的统一结合起来?因为有时候天热还得开冷机,这二者之间能不能实现一个比较自然的转换?我们现在看看到底把这个热量往哪儿排,实际在空气里面并不是一个空气的问题,咱们有三种温度,一种就是空气的干球温度,像今天大概室外27、28度,是天气预报说的温度。 直接换热就是干球温度。 但是,如果我对外面拿冷却塔喷水,就是湿球温度,大概23、24度。 比如到五一湿球温度比干球温度低的多,所以通过冷却塔就可以降低湿球温度,还可不可以再降低,还有一种就是间接蒸发冷却,西部地区很多地方用它做空调,它可以把试问降到室外的露点温度,像现在这个时候,北京的露点温度低于20度了。 这是拿北京气侯为例,蓝的是全球的干球温度,红的是湿球温度,绿的是全年的露点温度的变化。 所以,我要是安全露点温度考虑问题,全年北京市5876小时低于20度的时间占全年的67%,如果热阻做好了,就只有10%几的时间,做不好,15度的时候,露点温度也能占到77%的时间。 所以这个比例还是挺大的。 那么,怎么跟制冷机统一起来,实现无缝连接,自然过渡呢?这是一个方案,包括几部分,先说柜子,刚才我讲背板式的换热,现在是上下的换热,屋子里的空气26度,从这儿进入机柜,两组换热器,一组一个管给19度,一个管给16度,经过两种换热,从26度到20度,经过发热的服务器,达到32度,然后经过两组换热器降温,又变成26度,再回来,维持屋子里的温度是26度,不是靠屋子里别地儿装的孔,而是靠这个机柜,屋子里的温度是由机柜决定的,由于屋子里的温度是16度,露点温度只有12、13度,我把物资弄密闭了,人也不怎么进去,里面没有湿的事儿。 然后,这四组换散热器,拿热管引出来,这四组是16、19、22、25度,然后这个水就是跟这热管换热,把热量都带到水里去,所以从15恩度,涨到24度。 然后,24度,如果室外是两管,冷空气不用开,直接经过间接冷却塔就能够把水温降大15度,如果温度再低,只要朝这风机跟这儿的转换装置,能够维持我进入到换热器全年只有15度。 当室外温度高到30度,露点温度到18度,这时候冷却塔还能起一点作用,能起1/3的冷量还从这儿出,不足了再拿冷风机降一部分。 所以,这个冷风机是连续的就能够使得冷风气从10%的复合逐渐加到5%的复合。 冷却塔只要露点温度在20度以下,总能起点作用。 这样一个系统,这儿计算了一下,拿北京的气象条件可以看出来,如果是这么一个机房,跟一般传统的机房来比,咱们就直接取它一年用电量是百分之百,那么即使没有自然冷源,就是拿制冷机做,但是因为我减少了掺混,减少了数配能耗,能够节能40%几。 如果用最好的间接冷却方式,用电量只有23%,能够节省70%的电量,所以有巨大的节能潜力。 按照这个思路,我们有一些机房的改造实例,这是清华大学图书馆的一个全校支持整个学老师、同学做研究的数据中心。 它原来就是在这个屋子里头摆了一堆空调器,机器多了,热量还大,所以追加了好几台空调器。 用了跟刚才这个图差不多的方式,结果总机柜里面的风机降到7千瓦,这时候能效比从2.7涨到8.2,就只用原来1/3的能耗。 最热的时候,冷机都得开了,即使如此,能耗还能差一半。 所以,全年下来总的能耗消耗能够降低60%左右,这就是一个实际案例,这个还有一些遗憾的地方,就是做得不彻底,做得彻底了,还能够进一步降低消耗量。 总结一下,就是数据中心排热的空调实际上有巨大的节能潜力和节能空间。 它的核心是机房的气流组织怎么采集热量合理的空调器,其中几个基本原则,一个就是尽可能避免不同的温度的气流掺混,我们现在对机柜进行空调制冷的目的,不是对机房进行空调制冷,所以尽可能把冷源越贴近发热体越好,充分的利用自然冷源,有各种不同的法子获得不同温度的,然后想法介绍能耗,这样给出去的这些思路,今天讲的某一两个做法,实际在这个思路下发挥创新的精神还可以创造出好些各种各样的方案,真正把数据中心排热的空调能耗降下来。 我们觉得完全按照目前大多数方式来比较,有可能把机房的空调节能达到70%以上,相当以机房用电量降低30%以上。 刚才我听领导讲,国外发达国家比,机房的PUE到1.2,1.3那跟它机房的位置有关系。 在不同的气侯条件下,实际上抓好这几条,以自然冷源为主,适当的加一点机械制冷的补充,解决一年里面20%,25%的节能,完全可以把我们国家不同地方数据中心的空调能耗都有效的降下来,应该做的比发达国家,比美国还好,谢谢大家。

影响数据中心的PUE值有哪些要素

pue=数据中心总设备能耗/it设备能耗,pue是一个比率,基准是2,越接近1表明能效水平越好。 测量数据中心的能耗指标powerusageeffectiveness(电源使用效率,pue)

看得见的未来:华为发布2024数据中心能源十大趋势

华为引领的未来视界:2024数据中心能源趋势探索

华为的最新洞察力——2024数据中心能源趋势白皮书,如同一幅清晰的画卷,描绘出一个安全、可靠且绿色的数字基石。在这个未来世界中,华为的高可靠性产品与专业化的服务交织,如同坚固的盾牌,确保数据中心的平稳运行。分布式制冷技术的革新,犹如精密的温控守护者,提升着数据中心的稳定性与效率。

创新趋势揭示:

华为的卓越贡献: 三十年的技术沉淀,华为以安全、融合、低碳的解决方案,推动行业进步,塑造独特的竞争优势。

总的来说,华为在数据中心领域的探索和实践,不仅响应了算力需求的激增和数字化转型的挑战,更是对未来绿色、可靠、智能的数据中心生态的有力推动。

机房pue值是什么意思

该意思是评价数据中心能源效率的指标。 PUE是评价数据中心能源效率的重要指标,数值越接近1,表明数据中心的能效水平越好,该指标通过计算数据中心的总能耗与IT设备能耗的比值,来评估数据中心在能源利用方面的效率。 为了降低PUE值,需要采取一系列措施,如优化IT设备的设计和配置、提高数据中心的冷却效率、采用高效的供电设备等,此外,合理规划数据中心的布局和结构,减少不必要的能源消耗,也可以帮助降低PUE值。 总之,PUE值是衡量数据中心能源效率的关键指标,通过降低PUE值,可以提高数据中心的能效水平,减少对环境的影响,同时也能够降低运营成本,为企业和社会带来更多的经济效益。

数据中心电能使用EEUE分析

世界能源委员会1995年对能源效率的定义为:减少提供同等能源服务的能源投入。 对于能耗居高不下的数据中心,研究提高能源效率具有深远的社会效益和经济效益。 除了能源效率之外,数据中心还有多项其他性能指标,按照国际标准组织ISO的定义统称为关键性能指标,或称为关键绩效指标,研究这些指标对于数据中心同样具有十分重要的意义。 在已经颁布的数据中心性能指标中最常见的是电能使用效率PUE。 在我国,PUE不但是数据中心研究、设计、设备制造、建设和运维人员最为熟悉的数据中心能源效率指标,也是政府评价数据中心工程性能的主要指标。 除了PUE之外,2007年以后还出台了多项性能指标,虽然知名度远不及PUE,但是在评定数据中心的性能方面也有一定的参考价值,值得关注和研究。 PUE在国际上一直是众说纷纭、莫衷一是的一项指标,2015年ASHRAE公开宣布,ASHRAE标准今后不再采用PUE这一指标,并于2016年下半年颁布了ASHRAE 90.4标准,提出了新的能源效率;绿色网格组织(TGG)也相继推出了新的能源性能指标。 对PUE和数据中心性能指标的讨论一直是国际数据中心界的热门议题。 鉴于性能指标对于数据中心的重要性、国内与国际在这方面存在的差距,以及在采用PUE指标过程中存在的问题,有必要对数据中心的各项性能指标,尤其是对PUE进行深入地研究和讨论。 1.性能指标 ISO给出的关键性能指标的定义为:表示资源使用效率值或是给定系统的效率。 数据中心的性能指标从2007年开始受到了世界各国的高度重视,相继推出了数十个性能指标。 2015年之后,数据中心性能指标出现了较大变化,一系列新的性能指标相继被推出,再度引发了国际数据中心界对数据中心的性能指标,尤其是对能源效率的关注,并展开了广泛的讨论。 2.PUE 2.1PUE和衍生效率的定义和计算方法 2.1.1电能使用效率PUE TGG和ASHRAE给出的PUE的定义相同:数据中心总能耗Et与IT设备能耗之比。 GB/T.3—2016给出的EEUE的定义为:数据中心总电能消耗与信息设备电能消耗之间的比值。 其定义与PUE相同,不同的是把国际上通用的PUE(powerusage effectiveness)改成了EEUE(electricenergy usage effectiveness)。 国内IT界和暖通空调界不少专业人士对于这一变更提出了不同的看法,根据Malone等人最初对PUE的定义,Et应为市电公用电表所测量的设备总功率,这里的Et就是通常所说的数据中心总的设备耗电量,与GB/T.3—2016所规定的Et应为采用电能计量仪表测量的数据中心总电能消耗的说法相同。 笔者曾向ASHRAE有关权威人士咨询过,他们认为如果要将“power”用“electricenergy”来替代,则采用“electricenergy consumption”(耗电量)更准确。 显然这一变更不利于国际交流。 虽然这只是一个英文缩写词的变更,但因为涉及到专业术语,值得商榷。 ISO给出的PUE的定义略有不同:计算、测量和评估在同一时期数据中心总能耗与IT设备能耗之比。 2.1.2部分电能使用效率pPUE TGG和ASHRAE给出的pPUE的定义相同:某区间内数据中心总能耗与该区间内IT设备能耗之比。 区间(zone)或范围( boundary)可以是实体,如集装箱、房间、模块或建筑物,也可以是逻辑上的边界,如设备,或对数据中心有意义的边界。 ISO给出的pPUE的定义有所不同:某子系统内数据中心总能耗与IT设备总能耗之比。 这里的“子系统”是指数据中心中某一部分耗能的基础设施组件,而且其能源效率是需要统计的,目前数据中心中典型的子系统是配电系统、网络设备和供冷系统。 2.1.3设计电能使用效率dPUE ASHRAE之所以在其标准中去除了PUE指标,其中一个主要原因是ASHRAE认为PUE不适合在数据中心设计阶段使用。 为此ISO给出了设计电能使用效率dPUE,其定义为:由数据中心设计目标确定的预期PUE。 数据中心的能源效率可以根据以下条件在设计阶段加以预测:1)用户增长情况和期望值;2)能耗增加或减少的时间表。 dPUE表示由设计人员定义的以最佳运行模式为基础的能耗目标,应考虑到由于数据中心所处地理位置不同而导致的气象参数(室外干球温度和湿度)的变化。 2.1.4期间电能使用效率iPUE ISO给出的期间电能使用效率iPUE的定义为:在指定时间测得的PUE,非全年值。 2.1.5电能使用效率实测值EEUE-R GB/T.3—2016给出的EEUE-R的定义为:根据数据中心各组成部分电能消耗测量值直接得出的数据中心电能使用效率。 使用EEUE-R时应采用EEUE-Ra方式标明,其中a用以表明EEUE-R的覆盖时间周期,可以是年、月、周。 2.1.6电能使用效率修正值EEUE-X GB/T.3—2016给出的EEUE-X的定义为:考虑采用的制冷技术、负荷使用率、数据中心等级、所处地域气候环境不同产生的差异,而用于调整电能使用率实测值以补偿其系统差异的数值。 2.1.7采用不同能源的PUE计算方法 数据中心通常采用的能源为电力,当采用其他能源时,计算PUE时需要采用能源转换系数加以修正。 不同能源的转换系数修正是评估数据中心的一次能源使用量或燃料消耗量的一种方法,其目的是确保数据中心购买的不同形式的能源(如电、天然气、冷水)可以进行公平地比较。 例如,如果一个数据中心购买当地公用事业公司提供的冷水,而另一个数据中心采用由电力生产的冷水,这就需要有一个系数能使得所使用的能源在相同的单位下进行比较,这个系数被称为能源转换系数,它是一个用来反映数据中心总的燃料消耗的系数。 当数据中心除采用市电外,还使用一部分其他能源时,就需要对这种能源进行修正。 2.1.8PUE和EEUE计算方法的比较 如果仅从定义来看,PUE和EEUE的计算方法十分简单,且完全相同。 但是当考虑到计算条件的不同,需要对电能使用效率进行修正时,2种效率的计算方法则有所不同。 1)PUE已考虑到使用不同能源时的影响,并给出了修正值和计算方法;GB/T.3—2016未包括可再生能源利用率,按照计划这一部分将在GB/T.4《可再生能源利用率》中说明。 2)PUE还有若干衍生能源效率指标可供参考,其中ISO提出的dPUE弥补了传统PUE的不足;EEUE则有类似于iPUE的指标EEUE-Ra。 3)EEUE分级(见表1)与PUE分级(见表2)不同。 4)EEUE同时考虑了安全等级、所处气候环境、空调制冷形式和IT设备负荷使用率的影响。 ASHRAE最初给出了19个气候区的PUE最大限值,由于PUE已从ASHRAE标准中去除,所以目前的PUE未考虑气候的影响;ISO在计算dPUE时,要求考虑气候的影响,但是如何考虑未加说明;PUE也未考虑空调制冷形式和负荷使用率的影响,其中IT设备负荷率的影响较大,应加以考虑。 2.2.PUE和EEUE的测量位置和测量方法 2.2.1PUE的测量位置和测量方法 根据IT设备测点位置的不同,PUE被分成3个类别,即PUE1初级(提供能源性能数据的基本评价)、PUE2中级(提供能源性能数据的中级评价)、PUE3高级(提供能源性能数据的高级评价)。 PUE1初级:在UPS设备输出端测量IT负载,可以通过UPS前面板、UPS输出的电能表以及公共UPS输出总线的单一电表(对于多个UPS模块而言)读取。 在数据中心供电、散热、调节温度的电气和制冷设备的供电电网入口处测量进入数据中心的总能量。 基本监控要求每月至少采集一次电能数据,测量过程中通常需要一些人工参与。 PUE2中级:通常在数据中心配电单元前面板或配电单元变压器二次侧的电能表读取,也可以进行单独的支路测量。 从数据中心的电网入口处测量总能量,按照中等标准的检测要求进行能耗测量,要求每天至少采集一次电能数据。 与初级相比,人工参与较少,以电子形式采集数据为主,可以实时记录数据,预判未来的趋势走向。 PUE3高级:通过监控带电能表的机架配电单元(即机架式电源插座)或IT设备,测量数据中心每台IT设备的负载(应该扣除非IT负载)。 在数据中心供电的电网入口处测量总能量,按照高标准的检测要求进行能耗测量,要求至少每隔15min采集一次电能数据。 在采集和记录数据时不应该有人工参与,通过自动化系统实时采集数据,并支持数据的广泛存储和趋势分析。 所面临的挑战是以简单的方式采集数据,满足各种要求,最终获取数据中心的各种能量数据。 对于初级和中级测量流程,建议在一天的相同时间段测量,数据中心的负载尽量与上次测量时保持一致,进行每周对比时,测量时间应保持不变(例如每周周三)。 2.2.2EEUE的测量位置和测量方法 1)Et测量位置在变压器低压侧,即A点; 2)当PDU无隔离变压器时,EIT测量位置在UPS输出端,即B点; 3)当PDU带隔离变压器时,EIT测量位置在PDU输出端,即C点; 4)大型数据中心宜对各主要系统的耗电量分别计量,即E1,E2,E3点; 5)柴油发电机馈电回路的电能应计入Et,即A1点; 6)当采用机柜风扇辅助降温时,EIT测量位置应为IT负载供电回路,即D点; 7)当EIT测量位置为UPS输出端供电回路,且UPS负载还包括UPS供电制冷、泵时,制冷、泵的能耗应从EIT中扣除,即扣除B1和B2点测得的电量。 2.2.3PUE和EEUE的测量位置和测量方法的差异 1)PUE的Et测量位置在电网输入端、变电站之前。 而GB/T.3—2016规定EEUE的Et测量位置在变压器低压侧。 数据中心的建设有2种模式:①数据中心建筑单独设置,变电站自用,大型和超大型数据中心一般采用这种模式;②数据中心置于建筑物的某一部分,变电站共用,一般为小型或中型数据中心。 由于供电局的收费都包括了变压器的损失,所以为了准确计算EEUE,对于前一种模式,Et测量位置应该在变压器的高压侧。 2)按照2.2.2节第6条,在计算EIT时,应减去机柜风机的能耗。 应该指出的是,机柜风机不是辅助降温设备,起到降温作用的是来自空调设备的冷空气,降温的设备为空调换热器,机柜风机只是起到辅助传输冷风的作用,因此机柜风机不应作为辅助降温设备而计算其能耗。 在GB/T.3征求意见时就有人提出:机柜风机的能耗很难测量,所以在实际工程中,计算PUE时,EIT均不会减去机柜风机的能耗。 在美国,计算PUE时,机柜风机的能耗包括在EIT中。 3)PUE的测点明显多于GB/T.3—2016规定的EEUE的测点。 2.3.PUE存在的问题 1)最近两年国内外对以往所宣传的PUE水平进行了澄清。 我国PUE的真实水平也缺乏权威调查结果。 GB/T.3—2016根据国内实际状况,将一级节能型数据中心的EEUE放宽到1.0~1.6,其上限已经超过了国家有关部委提出的绿色数据中心PUE应低于1.5的要求,而二级比较节能型数据中心的EEUE规定为1.6~1.8,应该说这样的规定比较符合国情。 2)数据中心总能耗Et的测量位置直接影响到PUE的大小,因此应根据数据中心建筑物市电变压器所承担的荷载组成来决定其测量位置。 3)应考虑不同负荷率的影响。 当负荷率低于30%时,不间断电源UPS的效率会急剧下降,PUE值相应上升。 对于租赁式数据中心,由于用户的进入很难一步到位,所以数据中心开始运行后,在最初的一段时间内负荷率会较低,如果采用设计PUE,也就是满负荷时的PUE来评价或验收数据中心是不合理的。 4)数据中心的PUE低并非说明其碳排放也低。 完全采用市电的数据中心与部分采用可再生能源(太阳能发电、风电等),以及以燃气冷热电三联供系统作为能源的数据中心相比,显然碳排放指标更高。 数据中心的碳排放问题已经引起国际上广泛地关注,碳使用效率CUE已经成为数据中心重要的关键性能指标,国内对此的关注度还有待加强。 5)GB/T.3—2016规定,在计算EIT时,应减去机柜风机的耗能。 关于机柜风机的能耗是否应属于IT设备的能耗,目前国内外有不同的看法,其中主流观点是服务器风机的能耗应属于IT设备的能耗,其原因有二:一是服务器风机是用户提供的IT设备中的一个组成部分,自然属于IT设备;二是由于目前服务器所采用的风机基本上均为无刷直流电动机驱动的风机(即所谓EC电机),风机的风量和功率随负荷变化而改变,因此很难测量风机的能耗。 由于数据中心风机的设置对PUE的大小影响很大,需要认真分析。 从实际使用和节能的角度出发,有人提出将服务器中的风机取消,而由空调风机取代。 由于大风机的效率明显高于小风机,且初投资也可以减少,因此这种替代方法被认为是一个好主意,不过这是一个值得深入研究的课题。 6)国内相关标准有待进一步完善。 GB/T.3—2016《数据中心资源利用第3部分:电能能效要求和测量方法》的发布,极大地弥补了国内标准在数据中心电能能效方面的不足;同时,GB/T.3—2016标准颁布后,也引起了国内学术界和工程界的热议。 作为一个推荐性的国家标准如何与已经颁布执行的强制性行业标准YD 5193—2014《互联网数据中心(IDC)工程设计规范》相互协调?在标准更新或升级时,包括内容相似的国际标准ISOIEC -2-2016在内的国外相关标准中有哪些内容值得借鉴和参考?标准在升级为强制性国家标准之前相关机构能否组织就其内容进行广泛的学术讨论?都是值得考虑的重要课题。 ASHRAE在发布ASHRAE90.4标准时就说明,数据中心的标准建立在可持续发展的基础上,随着科学技术的高速发展,标准也需要不断更新和创新。 7)PUE的讨论已经相当多,事实上作为大数据中心的投资方和运营方,更关心的还是数据中心的运行费用,尤其是电费和水费。 目前在数据中心关键性能指标中尚缺乏一个经济性指标,使得数据中心,尤其是大型数据中心和超大型数据中心的经济性无法体现。 2.4.PUE的比较 不同数据中心的PUE值不应直接进行比较,但是条件相似的数据中心可以从其他数据中心所提供的测量方法、测试结果,以及数据特性的差异中获益。 为了使PUE比较结果更加公平,应全面考虑数据中心设备的使用时间、地理位置、恢复能力、服务器可用性、基础设施规模等。 3.其他性能指标 3.1.ASHRAE90.4 ASHRAE90.4-2016提出了2个新的能源效率指标,即暖通空调负载系数MLC和供电损失系数ELC。 但这2个指标能否为国际IT界接受,还需待以时日。 3.1.1暖通空调负载系数MLC ASHRAE对MLC的定义为:暖通空调设备(包括制冷、空调、风机、水泵和冷却相关的所有设备)年总耗电量与IT设备年耗电量之比。 3.1.2供电损失系数ELC ASHRAE对ELC的定义为:所有的供电设备(包括UPS、变压器、电源分配单元、布线系统等)的总损失。 3.2.TGG白皮书68号 2016年,TGG在白皮书68号中提出了3个新的能源效率指标,即PUE比(PUEr)、IT设备热一致性(ITTC)和IT设备热容错性(ITTR),统称为绩效指标(PI)。 这些指标与PUE相比,不但定义不容易理解,计算也十分困难,能否被IT界接受,还有待时间的考验。 3.2.1PUE比 TGG对PUEr的定义为:预期的PUE(按TGG的PUE等级选择)与实测PUE之比。 3.2.2IT设备热一致性ITTC TGG对ITTC的定义为:IT设备在ASHRAE推荐的环境参数内运行的比例。 服务器的进风温度一般是按ASHRAE规定的18~27℃设计的,但是企业也可以按照自己设定的服务器进风温度进行设计,在此进风温度下,服务器可以安全运行。 IT设备热一致性表示符合ASHRAE规定的服务器进风温度的IT负荷有多少,以及与总的IT负荷相比所占百分比是多少。 例如一个IT设备总负荷为500kW的数据中心,其中满足ASHRAE规定的服务器进风温度的IT负荷为450kW,则该数据中心的IT设备热一致性为95%。 虽然TGG解释说,IT设备热一致性涉及的只是在正常运行条件下可接受的IT温度,但是IT设备热一致性仍然是一个很难计算的能源效率,因为必须知道:1)服务器进风温度的范围,包括ASHRAE规定的和企业自己规定的进风温度范围;2)测点位置,需要收集整个数据中心服务器各点的进风温度,由人工收集或利用数据中心基础设施管理(DCIM)软件来统计。 3.2.3IT设备热容错性ITTR TGG对ITTR的定义为:当冗余制冷设备停机,或出现故障,或正常维修时,究竟有多少IT设备在ASHRAE允许的或建议的送风温度32℃下送风。 按照TGG的解释,ITTR涉及的只是在出现冷却故障和正常维修运行条件下可接受的IT温度,但是ITTR也是一个很难确定的参数。 ITTR的目的是当冗余冷却设备停机,出现冷却故障或在计划维护活动期间,确定IT设备在允许的入口温度参数下(<32℃)运行的百分比,以便确定数据中心冷却过程中的中断或计划外维护的性能。 这个参数很难手算,因为它涉及到系统操作,被认为是“计划外的”条件,如冷却单元的损失。 3.3.数据中心平均效率CADE 数据中心平均效率CADE是由麦肯锡公司提出,尔后又被正常运行时间协会(UI)采用的一种能源效率。 CADE提出时自认为是一种优于其他数据中心能源效率的指标。 该指标由于被UI所采用,所以直到目前仍然被数量众多的权威著作、文献认为是可以采用的数据中心性能指标之一。 但是笔者发现这一性能指标的定义并不严谨,容易被误解。 另外也难以测量和计算。 该指标的提出者并未说明IT资产效率如何测量,只是建议ITAE的默认值取5%,所以这一指标迄今为止未能得到推广应用。 3.4.IT电能使用效率ITUE和总电能使用效率TUE 2013年,美国多个国家级实验室鉴于PUE的不完善,提出了2个新的能源效率——总电能使用效率TUE和IT电能使用效率ITUE。 提出ITUE和TUE的目的是解决由于计算机技术的发展而使得数据中心计算机配件(指中央处理器、内存、存储器、网络系统,不包括IT设备中的电源、变压器和机柜风机)的能耗减少时,PUE反而增加的矛盾。 但是这2个性能指标也未得到广泛应用。 3.5.单位能源数据中心效率DPPE 单位能源数据中心效率DPPE是日本绿色IT促进协会(GIPC)和美国能源部、环保协会、绿色网格,欧盟、欧共体、英国计算机协会共同提出的一种数据中心性能指标。 GIPC试图将此性能指标提升为国际标准指标。 3.6.水利用效率WUE TGG提出的水利用效率WUE的定义为:数据中心总的用水量与IT设备年耗电量之比。 数据中心的用水包括:冷却塔补水、加湿耗水、机房日常用水。 根据ASHRAE的调查结果,数据中心基本上无需加湿,所以数据中心的用水主要为冷却塔补水。 采用江河水或海水作为自然冷却冷源时,由于只是取冷,未消耗水,可以不予考虑。 民用建筑集中空调系统由于总的冷却水量不大,所以判断集中空调系统的性能时,并无用水量效率之类的指标。 而数据中心由于全年制冷,全年的耗水量居高不下,已经引起了国内外,尤其是水资源贫乏的国家和地区的高度重视。 如何降低数据中心的耗水量,WUE指标是值得深入研究的一个课题。 3.7.碳使用效率CUE TGG提出的碳使用效率CUE的定义为:数据中心总的碳排放量与IT设备年耗电量之比。 CUE虽然形式简单,但是计算数据中心总的碳排放量却很容易出错。 碳排放量应严格按照联合国气象组织颁布的计算方法进行计算统计。

工信部等三部门联合发文:大型和超大型数据中心PUE值不高于1.4

工信部、国家机关事务管理局、国家能源局近日联合印发《关于加强绿色数据中心建设的指导意见》(下简称《意见》),明确提出要建立健全绿色数据中心标准评价体系和能源资源监管体系,到2022年,数据中心平均能耗基本达到国际先进水平。 《意见》指出,引导大型和超大型数据中心设计电能使用效率值不高于1.4;力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 基本原则 政策引领、市场主导。 充分发挥市场配置资源的决定性作用,调动各类市场主体的积极性、创造性。 更好发挥政府在规划、政策引导和市场监管中的作用,着力构建有效激励约束机制,激发绿色数据中心建设活力。 改造存量、优化增量。 建立绿色运维管理体系,加快现有数据中心节能挖潜与技术改造,提高资源能源利用效率。 强化绿色设计、采购和施工,全面实现绿色增量。 创新驱动、服务先行。 大力培育市场创新主体,加快建立绿色数据中心服务平台,完善标准和技术服务体系,推动关键技术、服务模式的创新,引导绿色水平提升。 主要目标 建立健全绿色数据中心标准评价体系和能源资源监管体系,打造一批绿色数据中心先进典型,形成一批具有创新性的绿色技术产品、解决方案,培育一批专业第三方绿色服务机构。 到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的电能使用效率值达到1.4以下,高能耗老旧设备基本淘汰,水资源利用效率和清洁能源应用比例大幅提升,废旧电器电子产品得到有效回收利用。 重点任务 (一)提升新建数据中心绿色发展水平 1.强化绿色设计 加强对新建数据中心在IT设备、机架布局、制冷和散热系统、供配电系统以及清洁能源利用系统等方面的绿色化设计指导。 鼓励采用液冷、分布式供电、模块化机房以及虚拟化、云化IT资源等高效系统设计方案,充分考虑动力环境系统与IT设备运行状态的精准适配;鼓励在自有场所建设自然冷源、自有系统余热回收利用或可再生能源发电等清洁能源利用系统;鼓励应用数值模拟技术进行热场仿真分析,验证设计冷量及机房流场特性。 引导大型和超大型数据中心设计电能使用效率值不高于1.4。 2.深化绿色施工和采购 引导数据中心在新建及改造工程建设中实施绿色施工,在保证质量、安全基本要求的同时,最大限度地节约能源资源,减少对环境负面影响,实现节能、节地、节水、节材和环境保护。 严格执行《电器电子产品有害物质限制使用管理办法》和《电子电气产品中限用物质的限量要求》(GB/T)等规范要求,鼓励数据中心使用绿色电力和满足绿色设计产品评价等要求的绿色产品,并逐步建立健全绿色供应链管理制度。 (二)加强在用数据中心绿色运维和改造 1.完善绿色运行维护制度 指导数据中心建立绿色运维管理体系,明确节能、节水、资源综合利用等方面发展目标,制定相应工作计划和考核办法;结合气候环境和自身负载变化、运营成本等因素科学制定运维策略;建立能源资源信息化管控系统,强化对电能使用效率值等绿色指标的设置和管理,并对能源资源消耗进行实时分析和智能化调控,力争实现机械制冷与自然冷源高效协同;在保障安全、可靠、稳定的基础上,确保实际能源资源利用水平不低于设计水平。 2.有序推动节能与绿色化改造 有序推动数据中心开展节能与绿色化改造工程,特别是能源资源利用效率较低的在用老旧数据中心。 加强在设备布局、制冷架构、外围护结构(密封、遮阳、保温等)、供配电方式、单机柜功率密度以及各系统的智能运行策略等方面的技术改造和优化升级。 鼓励对改造工程进行绿色测评。 力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 3.加强废旧电器电子产品处理 加快高耗能设备淘汰,指导数据中心科学制定老旧设备更新方案,建立规范化、可追溯的产品应用档案,并与产品生产企业、有相应资质的回收企业共同建立废旧电器电子产品回收体系。 在满足可靠性要求的前提下,试点梯次利用动力电池作为数据中心削峰填谷的储能电池。 推动产品生产、回收企业加快废旧电器电子产品资源化利用,推行产品源头控制、绿色生产,在产品全生命周期中最大限度提升资源利用效率。 (三)加快绿色技术产品创新推广 1.加快绿色关键和共性技术产品研发创新 鼓励数据中心骨干企业、科研院所、行业组织等加强技术协同创新与合作,构建产学研用、上下游协同的绿色数据中心技术创新体系,推动形成绿色产业集群发展。 重点加快能效水效提升、有毒有害物质使用控制、废弃设备及电池回收利用、信息化管控系统、仿真模拟热管理和可再生能源、分布式供能、微电网利用等领域新技术、新产品的研发与创新,研究制定相关技术产品标准规范。 2.加快先进适用绿色技术产品推广应用 加快绿色数据中心先进适用技术产品推广应用,重点包括:一是高效IT设备,包括液冷服务器、高密度集成IT设备、高转换率电源模块、模块化机房等;二是高效制冷系统,包括热管背板、间接式蒸发冷却、行级空调、自动喷淋等;三是高效供配电系统,包括分布式供能、市电直供、高压直流供电、不间断供电系统ECO模式、模块化UPS等;四是高效辅助系统,包括分布式光伏、高效照明、储能电池管理、能效环境集成监控等。 (四)提升绿色支撑服务能力 1.完善标准体系 充分发挥标准对绿色数据中心建设的支撑作用,促进绿色数据中心提标升级。 建立健全覆盖设计、建设、运维、测评和技术产品等方面的绿色数据中心标准体系,加强标准宣贯,强化标准配套衔接。 加强国际标准话语权,积极推动与国际标准的互信互认。 以相关测评标准为基础,建立自我评价、社会评价和政府引导相结合的绿色数据中心评价机制,探索形成公开透明的评价结果发布渠道。 2.培育第三方服务机构 加快培育具有公益性质的第三方服务机构,鼓励其创新绿色评价及服务模式,向数据中心提供咨询、检测、评价、审计等服务。 鼓励数据中心自主利用第三方服务机构开展绿色评测,并依据评测结果开展有实效的绿色技术改造和运维优化。 依托高等院校、科研院所、第三方服务等机构建立多元化绿色数据中心人才培训体系,强化对绿色数据中心人才的培养。 (五)探索与创新市场推动机制 鼓励数据中心和节能服务公司拓展合同能源管理,研究节能量交易机制,探索绿色数据中心融资租赁等金融服务模式。 鼓励数据中心直接与可再生能源发电企业开展电力交易,购买可再生能源绿色电力证书。 探索建立绿色数据中心技术创新和推广应用的激励机制和融资平台,完善多元化投融资体系。 保障措施 (一)加强组织领导。 工业和信息化部、国家机关事务管理局、国家能源局建立协调机制,强化在政策、标准、行业管理等方面的沟通协作,加强对地方相关工作的指导。 各地工业和信息化、机关事务、能源主管部门要充分认识绿色数据中心建设的重要意义,结合实际制定相关政策措施,充分发挥行业协会、产业联盟等机构的桥梁纽带作用,切实推动绿色数据中心建设。 (二)加强行业监管。 在数据中心重点应用领域和地区,了解既有数据中心绿色发展水平,研究数据中心绿色发展现状。 将重点用能数据中心纳入工业和通信业节能监察范围,督促开展节能与绿色化改造工程。 推动建立数据中心节能降耗承诺、信息依法公示、社会监督和违规惩戒制度。 遴选绿色数据中心优秀典型,定期发布《国家绿色数据中心名单》。 充分发挥公共机构特别是党政机关在绿色数据中心建设的示范引领作用,率先在公共机构组织开展数据中心绿色测评、节能与绿色化改造等工作。 (三)加强政策支持。 充分利用绿色制造、节能减排等现有资金渠道,发挥节能节水、环境保护专用设备所得税优惠政策和绿色信贷、首台(套)重大技术装备保险补偿机制支持各领域绿色数据中心创建工作。 优先给予绿色数据中心直供电、大工业用电、多路市电引入等用电优惠和政策支持。 加大政府采购政策支持力度,引导国家机关、企事业单位优先采购绿色数据中心所提供的机房租赁、云服务、大数据等方面服务。 (四)加强公共服务。 整合行业现有资源,建立集政策宣传、技术交流推广、人才培训、数据分析诊断等服务于一体的国家绿色数据中心公共服务平台。 加强专家库建设和管理,发挥专家在决策建议、理论指导、专业咨询等方面的积极作用。 持续发布《绿色数据中心先进适用技术产品目录》,加快创新成果转化应用和产业化发展。 鼓励相关企事业单位、行业组织积极开展技术产品交流推广活动,鼓励有条件的企业、高校、科研院所针对绿色数据中心关键和共性技术产品建立实验室或者工程中心。 (五)加强国际交流合作。 充分利用现有国际合作交流机制和平台,加强在绿色数据中心技术产品、标准制定、人才培养等方面的交流与合作,举办专业培训、技术和政策研讨会、论坛等活动,打造一批具有国际竞争力的绿色数据中心,形成相关技术产品整体解决方案。 结合“一带一路”倡议等国家重大战略,加快开拓国际市场,推动优势技术和服务走出去。 结语 据悉,在数据中心当前的后期运营,能耗是最大成本,占比超过50%。 降低能耗效率(PUE)值,一直是业界相关部门关心的重点。 工信部在2017年4月发布的《关于加强“十 三五”信息通信业节能减排工作的指导意见》中指出:“十二五”期间新建大型数据中心的能耗效率(PUE)要普遍低于1.5;到2020年,新建大型、超大型数据中心的能耗效率(PUE)值必须达到1.4 以下。 去年3月,工信部首次公布的《全国数据中心应用发展指引》中称:全国超大型数据中心平均PUE(平均电能使用效率)为1.50,大型数据中心平均PUE为1.69。 而根据“十三五规划”,到2020年,新建大型云计算数据中心PUE值将不得高于1.4。 如今,三部门联手针对绿色数据中心建设进一步提出了明确的指导意见。 在这样的大背景下,数据中心运营商如何运用新技术、新架构降低能源降耗,实现数据中心的绿色发展,将成为行业的关注热点,与此同时,节能降耗的大趋势之下,也将带来更多的市场机遇。

数据中心PUE值是什么 数据中心PUE值研究介绍【详解】

目前,PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。 PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。 PUE值越接近于1,表示一个数据中心的绿色化程度越高。 随着电子信息系统机房IT设备高密度的集成化,解决设备散热及机房散热量日渐趋高的现象开始受到了各界强烈关注。 而根据研究显示,IT/电信目前相关的碳排放已经成为最大的温室气体排放源之一,由此一年产生的碳排放为8.6亿吨,且该领域的排放势头还在随着全球对计算、数据存储和通信技术需求的增长快速上升。 即使人们大力提高设备、机房结构等装置和数据中心的能效,到2020年,全球IT相关碳排放也将达到15.4亿吨。 所以越来越多的人开始关注绿色机房的建设。 目前,PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。 PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。 PUE值越接近于1,表示一个数据中心的绿色化程度越高。 当前,国外先进的数据中心机房PUE值通常小于2,而我国的大多数数据中心的PUE值在2-3之间。 所以国内机房内芯片级主设备1W的功耗会导致总体耗电量达到2-3W,而国外机房内芯片级主设备1W的功耗只会导致总体耗电量为2W以下。 机房建设前期的设计和规划就把节能、环保考虑到,并在设计和规划的过程中达到机房的使用要求的前提下,把机房的PUE值作为机房的设计和规划要求。 用户对PUE值的要求,机房设计满足并说明从几方面可以把机房的设计达到用户的要求。 根据统计数据显示,数据中心的冷却占机房总功耗的40%左右。 机房中的冷却主要是由机房空调负责,所以降低机房空调的耗电量可以有效的降低机房的PUE值。 由于现代电子信息系统机房中的空调负荷主要来自于计算机主机设备、外部辅助设备的发热量,其中服务器、存储、网络等主设备占到设备散热量的80%。 所以随着服务器集成密度的持续增高,服务器机柜设备区就成为了机房内主要的热岛区域。 服务器设备热密度越来越大。 机房下送风空调系统是将抗静电活动地板下空间作为空调系统的送风静压箱,空调机组由通风地板向机柜、设备等热负荷送风。 可是高密度机柜从机柜前面的地板出风口出风。 当冷风送至机柜的中部冷风已经被服务器全部吸收。 所以,机柜的上半部分没有足够的冷量,就会导致机柜上半部分的设备无法正常运行。 现在机房服务器类负荷的最高散热量近年来已攀升至每机柜20KW以上。 原有地板下送风机房精密空调系统理想送风状况下的机房单位面积最大供冷量为4KW/㎡(更大供冷量所配置的空调机组送风量也相应增大,其送风风压足以把地板给吹起来),已无法满足其需求。 上述的问题解决。 机房在设计中静电地板高度的提升,地板出风口的通风率的提高,封闭机柜冷通道。 还可以在用风道上送风和地板下送风结合制冷等方式进行解决。 机房空调的冷量不浪费,有效的利用可以很大的提高空调的利用率。 在实现机房制冷的前提下空调运行也可以节能。 通过空调系统一系列的优化,可以降低整个机房的PUE值。 然而,空调本身的耗电量是最主要的。 所以解决空调自身的耗电量成本降低空调能耗的关键。 机房中采用传统的风冷制冷方式是最耗电的运行方式。 在大的IDC中现在基本上都采用水冷式的机房空调系统,比风冷系统节能20%左右。 但是,我们可以在通过新的空调技术还可以比水冷空调在节能30%以上的空调系统(非电空调)。 非电空调俗称溴化锂空调、吸收式制冷机、燃气空调等,其工作原理是通过采用天然气、城市煤气、发电废热、工业废热、工业废水、太阳能、沼气等任何能产生80℃以上的热能为动力、以溴化锂为冷媒进行热交换,从而降低空调循环水温度,达到制冷目的;但“非电”只是空调本身的制冷不直接用电来运作,但是支持空调运作的后方机组,比如说,风机、水泵、冷却塔都是需要耗电的。 但相对于直接用电来制冷和制热,非电空调对电力的消耗非常小。 所以这种非电技术的意思是,我们无法杜绝用电,但是可以做到大幅度节约用电。 非电空调制冷原理:就是利用溴化锂溶液实现的,即水和溴化锂的二介介质,由于沸点不同而且具有吸水性的原因当加热溴化锂溶液时,水被蒸发,蒸发的水流入蒸发器内蒸发吸热,然后蒸汽被冷凝,再次与溴化锂混合成为溶液。 这些过程中,它被热源加热,然后通过蒸发将需要冷却的一端冷却了,同时冷凝的热量通过室外的冷却塔冷却或送到室内制热等。 这样就实现了用热制冷。 所谓非电技术,就是采用直接由热能来制冷的原理。 传统意义上的电空调,要完成制冷效果,必须由热能到机械能、由机械能到电能、再由电能回到机械能,最后才能到冷能,这其中5次能量转换过程都将排出一定数量的二氧化碳。 因此,从理论上来说非电空调不仅节约了能源,还有效地减少了空调制冷过程中4倍的碳排放。 机房建设中空调系统通过最新的技术,我们可以把空调的能耗占整个机房总能耗的比值控制在15%左右。 这样整个机房的PUE值就可以控制在2以下。 数据中心的UPS电源占机房总功耗的5%左右。 而UPS自身的功率占UPS的7%左右。 而且机房建设的等级越高需要UPS的数量就越多。 比如:一个国标C级的机房配置一台400KVAUPS就可以满足要求,这个机房中的负载没有变化,只是等级从C级变成A级。 但是,UPS就会从一台400KVA变成四台400KVA的UPS。 所以解决UPS的自身功耗也是非常重要的。 如果机房供电的电源质量非常好,UPS的工作方式就可以采用后备式的方式。 正常工作市电通过UPS的旁路直接给负载进行供电,UPS处于备份状态。 市电停电以后,直接转换成UPS电池供电模式。 通过这样的方式可以节约所有UPS的自身功耗的电量。 最后,PUE无论这样变化,都是大于1的乘数因子。 要做到最佳节能,降低服务器等IT设备的功耗,才是最有效的方法。 比如1W的IT设备需要总功耗电量为1.6W。 当降低服务器设备功耗为0.8的时候,数据中心总功耗立即降为0.8×1.6=1.28。 IT设备降低了0.2,而总耗电量降低了0.32。 这就是乘数因子效应。


相关标签: 数据中心pue值标准PUE趋势和预测数据中心值的未来

本文地址:http://www.hyyidc.com/article/16271.html

上一篇:数据中心PUE值认证证明能源效率数据中心pue...
下一篇:网站不备案有什么后果...

发表评论

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="http://www.hyyidc.com/" target="_blank">好有缘导航网</a>
文章推荐