好有缘导航网

衡量数据中心能效管理性能:关键指标和最佳实践 (衡量数据中心特性的指标)


文章编号:18088 / 分类:互联网资讯 / 更新时间:2024-04-28 05:33:41 / 浏览:

简介

数据中心是现代数字经济的基础设施,消耗大量能源。因此,有效管理数据中心的能效至关重要,以降低运营成本和环境影响。

衡量数据中心能效管理性能关键指标和最佳实践

本文将讨论衡量数据中心能效管理性能的关键指标,并介绍最佳实践,帮助组织优化数据中心的能效。

关键指标

以下是一些关键指标,用于衡量数据中心的能效管理性能:

  • 电源使用效率 (PUE):PUE 是数据中心总能耗与用于 IT 设备能耗的比率。低 PUE 值表示更有效的能效管理。
  • 数据中心基础设施效率 (DCiE):DCiE 是数据中心用于 IT设备以外的能耗与总能耗的比率。高 DCiE 值表示低能耗基础设施。
  • 服务器能源效率比率 (SEER):SEER 是服务器使用率与服务器能耗的比率。高 SEER 值表示服务器利用率高,能耗低。
  • 冷却系统能效比率 (CSEER):CSEER 是冷却系统能耗与所移除热量的比率。高 CSEER 值表示更有效的冷却系统。
  • 可再生能源利用率:此指标衡量数据中心利用可再生能源的程度,例如太阳能或风能。

最佳实践

以下是通过这些关键指标提高数据中心能效管理性能的最佳实践:

服务器优化

  • 实施虚拟化和容器化技术以提高服务器利用率。
  • 利用服务器功率管理功能,例如动态电压和频率调整 (DVFS)。
  • 选择能效高的服务器硬件。

热管理


如何用PUE指标衡量机房能耗效率

当前,测量数据中心的能耗指标有两种方法:Power Usage Effectiveness(电源使用效率,PUE)和Data Center Infrastructure Efficiency(数据中心基础架构效率,DCIE)。 这两种方法都考虑了数据中心里供电、散热系统和IT设备所各自消耗的能量,得到了The Green Grid(绿色网格)组织的支持。 这个组织是去年为了专门开发数据中心能效及生产力测量体系而组建的。 The Green Grid 定义了这两种测量方法的具体计算方式:1. PUE = 数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明能效水平越好。 2. DCiE = IT设备能耗/数据中心总设备能耗x 100,DCiE是一个百分比值,数值越大越好。 根据The Green Grid,北京科兰,测量数据中心中IT设备电耗的最有效的方法是测量机房PDU( power distribution units)的输出电量,这个方法应该代表了数据中心里向服务器机柜输送的总电力。

机房pue值是什么意思

该意思是评价数据中心能源效率的指标。 PUE是评价数据中心能源效率的重要指标,数值越接近1,表明数据中心的能效水平越好,该指标通过计算数据中心的总能耗与IT设备能耗的比值,来评估数据中心在能源利用方面的效率。 为了降低PUE值,需要采取一系列措施,如优化IT设备的设计和配置、提高数据中心的冷却效率、采用高效的供电设备等,此外,合理规划数据中心的布局和结构,减少不必要的能源消耗,也可以帮助降低PUE值。 总之,PUE值是衡量数据中心能源效率的关键指标,通过降低PUE值,可以提高数据中心的能效水平,减少对环境的影响,同时也能够降低运营成本,为企业和社会带来更多的经济效益。

数据中心wue是什么意思

数据中心的能耗由以下几部分组成。

(1)IT设备。

(2)制冷系统设备。

(3)供配电系统设备。

(4)其他设备。

典型数据中心能耗构成如图所示。其中,数据中心能耗比重最大的部分为IT设备,其次为制冷系统设备、供配电系统设备及其他消耗电能的数据中心设施。

随着数据中心规模扩大及建筑体量的增大,冷水系统方案得到越来越多的应用。随之而来的是大量水资源的消耗及循环水的净化处理问题。同时,若采用蒸发冷却方案,其对清洁水的要求也越来越高。从能源利用的综合角度来看,单纯地靠PUE指标难以全面准确地评估数据中心的能耗水平,为全面合理地评价绿色数据中心工程,TGG在2009年首次提出并引入针对水利用效率评价的WUE(Water UseageEffectiveness)指标。水利用效率作为评价数据中心用水状况的指标,定义为数据中心水资源的全年消耗量与数据中心IT设备全年耗电量的比值,单位为L/kW·h。

WUE=数据中心水资源的全年消耗量/数据中心IT设备全年耗电量

目前,可采用水蒸发冷却的方法来促使制冷空调系统效率的提升,尤其在环境干燥的地区。但与此同时,PUE指标的降低也带来了水资源消耗的升高。对于采用冷水方案的工程,PUE与WUE存在一定的负相关性。这也决定了在实践应用中需要进行权衡,找到两者之间合理的平衡区间。与此对应的是,如今很多大型数据中心工程都选址在北方等气候寒冷、干燥的地区,水资源短缺也是需要考虑的重要问题。

以往人们对数据中心资源消耗的关注点往往集中在其电力消耗或燃料消耗上,认为一个数据中心只要电力指标优良,就可以认定为其为绿色数据中心;但近几十年来,全球承受着旷日持久的系统性干旱,并且随着人口的增长,工业规模的扩大,水资源消耗变得越来越紧迫,全球水资源缺乏的现状不会改变。

因此,面对水资源日趋匮乏的态势,业内也逐渐将目光转移到数据中心的水资源消耗上来;根据Uptime Institute的调查数据,数据中心平均规模大约为1MW,每年消耗的水量为26 600~30 400m³。

数据中心使用水的主要目的是散热,即利用水作为载冷工质持续带走IT设备热量。最常见的为冷冻水系统和冷却水系统,在这些系统中,冷水流经计算机机房的制冷单元;风扇吹过冷冻水散热盘管,向IT设备提供冷空气;然后水流回冷却装置中被重新冷却。冷却水系统依靠冷却塔利用水的蒸发来散发热量,利用水与空气流动接触后进行冷热交换带走热量达到蒸发散热降低水温的目的。

另外,冷凝水被重复蒸发并排放到大气中,会携带矿物质、灰尘及其他污染物。这些水必须被定期处理。上述规模的数据中心每年通过排放或补水大约会消耗5000m³的水。

总体来讲,使用传统水冷方式的1MW数据中心,每年用水量大约为30 000m³,这些数据并没有将数据中心加湿系统和空调末端泄水的消耗计算在内;另外,随着时间的推移,在水冷设备上,尤其是换热器翅片或换热管上会累积水垢或杂质,在去除这些影响空调运行安全和运行效率的污垢时,常用的方法是用水冲洗并排空,这一过程也消耗了大量的水资源。

1)冷却水蒸发采用冷却塔制取低温冷却水时,数据中心的热量主要靠冷却水的蒸发散发到大气环境中(采用干式冷却器的系统主要依靠空气与冷却水的对流换热,但其效率低,占地面积较大,且对气候条件的要求较为苛刻),水蒸发损失为数据中心水资源消耗的主要部分。

2)冷却水排水通常,数据中心冷却水系统的运行水温为32℃/37℃,该温度较容易滋生细菌,适宜藻类和污垢的生长及在管壁上的附着,并且需要通过冷却水排污来配合控制加药浓度,这一过程也会产生水的消耗。

3)IT房间加湿用水冬季,尤其是我国北方地区,室外环境相对湿度较低,机房内湿度受此影响需通过加湿系统维持机房内的湿度要求,需要消耗加湿用水。

4)软化水设备用水冷冻水及加湿水等闭式水系统在运行过程中由于泄漏、排水会造成一定的损失,为保证运行安全及系统压力,需要及时补充软化水,通过软化水设备对市政补水处理后补充到系统中。

5)设备维护用水系统运行过程中,冲洗、管道压力测试等需要的用水。

6)柴发系统运行及维护用水此部分为柴发机组排烟净化及机组冷却用水,这部分水资源消耗所占比例较小。此外,季节不同,数据中心各项用水比例会发生明显变化。

WUE指标目前还没有被广泛用于工业中,并且很少被引用,但水已经成为数据中心十分显著的因素,未来水资源利用效率一定会进入PUE度量工作中。

反映数据集中趋势的指标有哪些?

反映数据中心位置的有平均值、中位数、众数。

1、平均值。平均值是衡量数据中心位置的重要指标,在一定程度上反映数据必然性的特点,包括算术平均值、加权算术平均值、调和平均值和几何平均值等。

2、中位数。计算方法是将所有数据以由小到大的顺序排列,位于中央的数据值就是中位数(或取位于中央的两个数的平均)。

3、众数。众数是指在数据中发生频率最高的数据值。

如果各个数据之间的差异程度较小,用平均值就有较好的代表性;如果数据之间的差异程度较大,特别是有个别的极端值的情况,用中位数或众数有较好的代表性。

反映数据离散程度的是什么?

反映数据离散程度的是方差、标准差和极差。其中方差是数据组中各数值与其均值离差平方的平均数;标准差是按照各数据与平均数的差的平方和后开方,这个数越大,离散程度越大,反之越小;极差是将一组数据中的最大与最小数取差,也是极差越大,离散程度越大。

数据分散程度是数据分布的另一个重要特征,它所反映的是各变量值远离其中心值的程度,因此也称为离中趋势。集中趋势的各测度值是对数据一般水平的一个概括性度量,它对一组数据的代表程度取决于该组数据的离散水平。

数据中心能耗指标

数据中心能耗指标主要是用于评估数据中心的能源利用效率和节能性能。以下是一些常见的数据中心能耗指标:电能利用效率、碳排放量、能效比、能源回收率、负载率。

1、电能利用效率(PUE):PUE是数据中心能耗评价中最常用的指标,它是用来衡量数据中心能源消耗的效率。PUE值的计算公式为:总设施能耗(千瓦时)/IT设备能耗(千瓦时)。理想的PUE值越低,表示数据中心的能源利用效率越高。

2、碳排放量:碳排放量是指数据中心在运行过程中产生的二氧化碳排放量。较低的碳排放量表明数据中心对环境的影响较小。

3、能效比(CUE):CUE是数据中心制冷系统能耗评价的一个重要指标,它是制冷系统总能耗与IT设备能耗之比。CUE值越低,表示制冷系统的能耗越低,效率越高。

4、能源回收率(ER):能源回收率是指数据中心在制冷、散热等过程中回收再利用能源Total Energy的比率。ER值越高,表示数据中心的能源回收效果越好。

5、负载率:负载率是指数据中心的实际运行负载与设计负载之间的比率。较高的负载率可能导致数据中心能耗较高,而较低的负载率可能意味着数据中心能源利用不充分。

全球算力竞争加剧,我国 ICT 建设驶入快车道

(报告出品方/分析师:银河证券研究院 赵良毕)

报告原标题: 通信行业深度报告:ICT“双碳”新基建,IDC 温控新机遇

(一)算力建设关乎数字经济发展,各国均不断发力

加快培育数据要素市场,全球算力竞争不断提升。 2020 年 4 月 9 日,《中共中央、国务院关于构建更加完善的要素市场化配置体制机制的意见》中,数据首次作为一种新型生产要素在文件中出现,与土地、劳动力、资本和技术等传统要素并列。计算力已经与国家经济息息相关。

IDC&清华产业研究院联合发布的《2021-2022 全球计算力指数评估报告》表明,计算力是数字经济时代的关键生成要素:

(1)从 2016-2025 年的整体趋势及预测来看,各个国家的数字经济占 GDP 的比重持续提升,预计 2025 年占比将达到 41.5%。

(2)计算力作为数字经济时代的关键生产力要素,已经成为挖掘数据要素价值,推动数字经济发展的核心支撑力和驱动力。

(3)国家计算力指数与 GDP 的走势呈现出了显著的正相关。评估结果显示十五个重点国家的计算力指数平均每提高 1 点,国家的数字经济和 GDP 将分别增长 3.5%和 1.8%,预计该趋势在 2021-2025 年将继续保持。同时,通过针对不同梯队国家的计算力指数和 GDP 进行进一步的回归分析后,研究发现:当一个国家的计算力指数达到 40 分以上时,国家的计算力指数每提升 1 点,其对于 GDP 增长的推动力将增加到 1.5 倍,而当计算力指数达到 60 分以上时,国家的计算力指数每提升 1 点,其对于 GDP 增长的推动力将提高到 3.0 倍,对经济的拉动作用变得更加显著。

数字化进程不断推进,发展中国家经济增速较高。 根据 IDC 数据显示,2016 年到 2025 年,数字经济占比不断提升,全球数字经济占比2025E为41%,其中发达国家数字经济占比为48.10%,比发展中国家高 17.8 个百分点。中美两国计算力指数综合评估较高,中国计算力发展水平涨幅达 13.5%,处于较高增长水平。总体来看,数字经济为各国 GDP 总量贡献不断提升,算力提升推动数字经济向好发展。

全球公有云用户市场保持增长,IT 侧资本开支不断增加。 云是推动企业数字化转型升级的重要驱动力, 企业不断增加对移动技术、协作以及其他远程工作技术和基础架构的投资。预计到 2023 年,用户支出将达到近 6000 亿美元,云将占全球企业 IT 消费市场的 14.2%。其中软件化服务(SaaS)是最大的细分市场,预计该市场在 2023E 用户支出增长至 2080.80 亿美元,相比 2021 年增长 36.73%;云基础建设(IaaS)将达到 1562.76 亿美元,相比 2021 年增长 70.53%。为了获得数字经济时代的比较优势,全球主要国家在数据中心的建设上进行了大规模投资,全球经济受到新冠疫情的严重影响下,数据中心的建设保持了较高增速,预计在未来几年云服务提供商与电信公司之间的合作日益增加,全球云市场有望进一步增长。

中国 IDC 市场规模增速较快,目前处于高速发展期。 受益于我国“新基建”战略提出和持续攀升的互联网流量,2021 年数据中心建设规模不断增长。根据中国信通院数据,我国 2021年 IDC 行业规模约 1500.2 亿元,近 5 年中国 IDC 市场年均复合增速约达 30%,领先于全球 IDC市场增速,其中近三年中国 IDC 市场具有高增速。我国 IDC 行业增速较快主要系我国 5G 建设持续推进,5G 应用项目多点开花不断落地,预计到 2025 年,我国数据中心市场规模达到 5952亿元。随着数字经济“东数西算”工程加速推进、互联网和云计算大客户需求不断扩张及数据中心在物联网、人工智能等领域的广泛应用,数据中心行业发展前景广阔,有望保持高速增长。

IDC 机柜数量不断增长,中国东部地区 IDC 中心较多。 2021 年 IDC 的机柜量增长了 99.15万架,增速为 30%,机柜量总数达到 415.06 万架,年度增长率达到 31.39%。随着 5G 时代数字经济向 社会 各领域持续渗透,数据量爆炸式增长使得全 社会 对算力需求提升,预计每年仍将以20%以上速度高增,有望打开市场新空间。目前我国大部分数据中心集中在东部及沿海地区,根据 CDCC 数据,2021 年华东、华北、华南三地区机柜数占全国总数的 79%,而东北、西北地区占比相对较低。

我国东部地区 IDC 上架率较高,西部地区加速建设。 目前 IDC 机房在我国东西部呈现差异较大发展,体现东密西疏、东热西冷的特点。2021 年新增机柜对比可知,东部及沿海地区数据中心上架率高,西部上架率较低。2021 年华东、华北、华南三地上架率约 60%-70%,而东北、西北、西南及华中上架率仅有 30%-40%。在政策布局方面,国家不断推进数字经济发展,形成以数据为纽带的区域协调发展新格局。对于网络时延要求不高的业务,率先向西部转移建设,由于西部地区气温较低优势突出,实施“东数西算”有利于数据中心提高能效,西部地区产业跨越式发展,促进区域经济有效增长。

(二)数字经济政策护航,“东数西算”工程建设有望超预期

把握数字化发展机遇,拓展经济发展新空间。2022 年 1 月,国务院发布《“十四五”数字经济发展规划》,规划强调数字经济是继农业经济、工业经济之后的主要经济形态,是以数据资源为关键要素,以现代信息网络为主要载体,以信息通信技术融合应用、全要素数字化转型为重要推动力,促进公平与效率更加统一的新经济形态。同时,规划明确提出到 2025 年,数字经济迈向全面扩展期,数字经济核心产业增加值占 GDP 比重达到 10%。基于上述规划,2022年 5 月 26 日,工信部在 2022 年中国国际大数据产业博览会上指出,坚持适度超前建设数字基础设施,加快工业互联网、车联网等布局。

推进绿色数据中心建设,提升数据中心可再生能源利用率。 我国能源结构正处在不断优化的过程中,新能源地区分布不均衡,特别是水力、光伏、风能,主要集中在中西部地区,而使用端主要在东部沿海地区,虽然通过“西电东送”工程部分缓解了东部地区用电紧张问题,但是作为高耗能的数据中心产业,协调东西部发展布局、降低能耗就十分必要。全国各省市、地区相继出台了各种强调数据中心绿色、节能的政策要求,进而促进能源生产、运输、消费等各环节智能化升级,催化能源行业低碳转型。

东西部资源高效匹配,建立全国一体化协同创新体系。 “东数西算”工程是我国继“南水北调”、“西气东输”、“西电东送”之后的又一项重大的国家战略工程,将东部海量数据有序引导到西部,优化数据中心建设布局,缩小东西部经济差异,促进东西部协同发展。2022 年 2 月17 日,国家发改委、中央网信办、工业和信息化部、国家能源局联合印发通知,同意在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等 8 地启动建设国家算力枢纽节点,并规划了 10 个国家数据中心集群。全国一体化大数据中心体系完成总体布局设计,“东数西算”工程正式全面启动。国家以“东数西算”为依托,持续推进数据中心与算力、云、网络、数据要素、数据应用和安全等协同发展,形成以数据为纽带的区域协调发展新格局,助力数字经济不断发展。

全球算力网络竞争力凸显,ICT 产业链有望迎来发展新空间。 通过全国一体化的数据中心布局建设,扩大算力设施规模,提高算力使用效率,实现全国算力规模化、集约化发展,有望进一步提升国家算力水平和全球竞争能力。同时,扩大数据中心在中西部地区覆盖,能够就近消纳中西部地区新型绿色能源,持续优化数据中心能源使用效率。通过算力枢纽和数据中心集群建设,将有力带动相关产业上下游投资,促进东西部数据流通、价值传递,延展东部发展空间,推进西部大开发形成全国均衡发展新格局。

(三)双碳减排目标明确,绿色节能成为发展必需

能源变革不断创新升级,低碳转型融入 社会 经济发展。 自上个世纪人类逐渐认识到碳排放造成的不利影响,各国政府和国际组织不断进行合作,经过不懈努力、广泛磋商,在联合国和世界气候大会的框架下达成了一系列重要共识,形成了《联合国气候变化框架公约》(1992 年签署,1994 年生效)、《京都议定书》(1997 年达成,2005 年生效)和《巴黎协定》(2015年达成,2016 年生效)等文件,其中《巴黎协定》规定了“把全球平均气温升幅控制在工业化前水平以上低于 2 以内”的基础目标和“将气温升幅限制在工业化前水平以上 1.5 之内”的努力目标。

推动能源革命,落实碳达峰行动方案。 为了达到《巴黎协定》所规定的目标,我国政府也提出了切合我国实际的双碳行动计划,2020 年 9 月 22 日,我国在第七十五届联合国大会上宣布,中国力争 2030 年前二氧化碳排放达到峰值,努力争取 2060 年前实现碳中和目标。中国的“双碳”目标正式确立,展现了中国政府应对全球气候变化问题上的决心和信心。同时 2021年度《政府工作报告》中指出:扎实做好碳达峰、碳中和各项工作,制定 2030 年前碳排放达峰行动方案。优化产业结构和能源结构。推动煤炭清洁高效利用,大力发展新能源,在确保安全的前提下积极有序发展核电。扩大环境保护、节能节水等企业所得税优惠目录范围,促进新型节能环保技术、装备和产品研发应用,培育壮大节能环保产业,推动资源节约高效利用。落实 2030 年应对气候变化国家自主贡献目标。加快发展方式绿色转型,协同推进经济高质量发展和生态环境高水平保护,单位国内生产总值能耗和二氧化碳排放分别降低 13.5%、18%。

聚焦数据中心低碳发展,实现双碳方式产业发展。 在双碳背景下,“东数西算”工程中数据中心西部迁移,PUE 值有望降低带来能耗电量高效利用。能源高效节能、革新升级已是大势所趋和必然要求。

(一)数据中心能耗突出,绿色节能是发展趋势

绿电成为发展趋势,低碳发展中发挥重要作用。 随着大力发展数据中心产业,数据中心能耗在国民经济中的占比也在不断提高。研究表明,预计 2025 年,数据中心能耗总量将达到 3952亿 kW·h,占全 社会 用电总量的 4.05%,比例逐年攀升。整体来看,由服务器、存储和网络通信设备等所构成的 IT 设备系统所产生的功耗约占数据中心总功耗的 45%。空调系统同样是数据中心提高能源效率的重点环节,所产生的功耗约占数据中心总功耗的 40%。降 PUE 将成为未来发展趋势,主要从制冷方面入手。

数据中心碳排放不断控制,PUE 值不断改善。 根据国家能源局 2020 年全国电力工业统计数据 6000 千瓦及以上电厂供电标准煤耗每度电用煤 305.5 克,二氧化碳排放量按每吨标煤排放 2.7 吨二氧化碳来计算,2021 年全国数据中心二氧化碳排放量 7830 万吨,2030 年预计排放约 1.5 亿吨二氧化碳。

量化指标评估数据中心能源效率。 为评价数据中心的能效问题,目前广泛采用 PUE(Power Usage Effectiveness)作为重要的评价指标,指标是数据中心消耗的所有能源与 IT 负载消耗的能源的比值。PUE 通常以年度为计量区间,其中数据中心总能耗包括 IT 设备能耗和制冷、配电等系统的能耗,其值大于 1,越接近 1 表明非 IT 设备耗能越少,即能效水平越好。

数据中心空调系统及服务器系统能耗占比较大。 数据中心的耗能部分主要包括 IT 设备、制冷系统、供配电系统、照明系统及其他设施(包括安防设备、灭火、防水、传感器以及相关数据中心建筑的管理系统等)。整体来看,由服务器、存储和网络通信设备等所构成的 IT 设备系统所产生的功耗约占数据中心总功耗的 45%。其中服务器系统约占 50%,存储系统约占 35%,网络通信设备约占 15%。空调系统仍然是数据中心提高能源效率的重点环节,它所产生的功耗约占数据中心总功耗的 40%。电源系统和照明系统分别占数据中心总耗电量的 10%和 5%。

(三)温控系统持续优化,节能技术变革打开新机遇

温控系统多元化趋势,节能技术不断突破。 当前主流的制冷方式包括风冷、水冷、间接蒸发冷却和液冷技术,根据数据中心规模、环境特点选择合适的制冷技术。提高数据中心的能效,尤其是空调制冷系统的能效成为研究重点。目前,数据中心空调制冷能效比的提升主要从液冷和自然冷源两方面入手。从制冷方式来看,风冷将逐渐被安装灵活、效率更高的液冷方式所取代。液冷技术目前应用于 5G 场景,通常对骨干网 OTN 设备、承载网设备以及 5G BBU 设备进行液冷,采用液冷技术可以通过液体将发热元件热量带走,实现服务器的自然散热,相互传统制冷方法,液冷技术更为高效节能。

冷却系统不断优化。 为了客观评价这些制冷技术以便进一步提高节能减排效率,中国制冷学会数据中心冷却工作组研究认为:采用数据中心冷却系统综合性能系数(GCOP)作为评价指标更为合理。

其中,GCOP 为数据中心冷却系统综合性能系数指标,用于评价数据中心冷却系统的能效。为数据中心总能耗,其中不仅包括数据中心市电供电量,也包括数据中心配置的发电机的供电量。为制冷系统能耗,包括机房外制冷系统的能耗,另外包括 UPS 供电的制冷风扇、关键泵以及设备机柜内风扇等制冷设备产生的能耗。

实际情况中,为了使能效评价结果更具有说服力与可比较性。冷却工作组建议使用数据中心全年平均综合性能系统数的(GCOPA)指标和特定工况下数据中心冷却系统综合性能系数(GCOPS)作为评价标准。

冷却工作组根据上述标准针对来自内蒙古呼和浩特、广东深圳、河北廊坊等地的高效数据中心进行分析。这些数据中心分布在不同建筑气候区,使用了不同系统形式和运行策略,例如高效末端、自然冷却、AI 控制的运行优化等。数据表明西部地区建设新型数据中心制冷能耗较优。我国数据中心冷却系统能效存在极大差异,提升我国数据中心冷却系统的能效意义较大,冷却系统仍存在巨大的节能潜力。

数据中心容量不断扩充,中美两国贡献较多。 根据 Synergy Research Group 的最新数据显示,由大型供应商运营的大型数据中心数量已增至 700 家,而以关键 IT 负载衡量,美国占这些数据中心容量的 49%,中国是继美国之后对超大型数据中心容量贡献第二大的国家,占总量的 15%。其余的产能分布在亚太地区(13%)、EMEA 地区(19%)和加拿大/拉丁美洲(4%)。超大规模数据中心数量翻一番用了五年时间,但容量翻番用了不到四年时间。

空调系统建设成本较多。 根据IBM数据,数据中心的建设成本中空调系统的占比为16.7%。总体来说,2021 年数据中心基础设施设备总支出为 1850 亿美元,能源方面建设资本开支占较大份额,能源建设及利用效率有望进一步提升。

数据中心资本稳步增长,温控市场打开新空间。 根据 Synergy Research 的数据,2021年数据中心基础设施设备总支出(包括云/非云硬件和软件)为 1850 亿美元,公有云基础设施设备支出占比为 47%。面向硬件的服务器、存储和网络合计占数据中心基础设施市场的 77%。

操作系统、虚拟化软件、云管理和网络安全占了其余部分。参照 2021 年全球数据中心资本开支增长 10%的现实,假设未来 4 年数据中心每年资本开支保持增长 10%,我国数据中心温控系统市场规模 2021 年为 301 亿元,可在 2025 年达到 441 亿元。

(一)英维克:打造温控全产业链,行业高景气领跑者受益

国内技术领先的精密温控龙头,聚焦精密温控节能产品和解决方案。 公司自成立以来,一直专注于数据机房等精密环境控制技术的研发,致力于为云计算数据中心、通信网络、物联网的基础架构及各种专业环境控制领域提供解决方案,“东数西算”项目中提供节能技术。

公司营业收入高速增长,盈利能力表现良好。 2022Q1,公司实现营收 4.00 亿元,同比增长 17.10%,归母净利润 0.13 亿元,同比下降 59.26%,主要受原材料价格上涨、疫情反复等因素影响。2021 年英维克实现营业收入 22.28 亿元,同比增长 29.71%,自 2017 年以来 CAGR 达34.65%,主要是由于机房温控一些大项目验收确认,以及机柜温控节能产品收入增长。受益于整个行业的景气度,全年实现归母净利润 2.05 亿元,同比增长 12.86%,自 2017 年以来 CAGR达 24.25%,主要源自数据中心及户外机柜空调业务的持续增长。

公司毛利率总体稳定,未来有望止跌回升。 2021 年公司销售毛利率为 29.35%,同比下降9.50%,主要原因系上游原材料成本提升,公司整体盈利能力承压。净利率总体有所下降,销售净利率为 8.92%,同比下降 15.85%。随着公司持续数据机房等精密环境控制技术的研发,技术平台得到复用,规模效应愈发显著,公司未来毛利率及净利率有望企稳回升。

蒸发冷却、液冷技术为未来发展趋势,公司技术储备充足,产品系列覆盖全面。 目前国内数据中心温控方式仍然以风冷、冷冻水为主,由于热密度、耗能的提升,传统方案已经不能满足市场需求,散热方式逐渐从传统风冷模式发展到背板空调、液冷等新型散热方式,数据中心冷却系统呈现出冷却设备贴近服务器、核心发热设备的趋势,液冷、蒸发冷却技术优势明显。

研发投入持续增加提升核心竞争力,温控系统不断优化。 公司以技术创新作为企业发展的主要驱动力,不断加大研发投入。虽然受到上游原材料价格急速上涨和疫情反复的不利影响,公司始终坚持加大研发力度,为公司后续发展提供技术支撑。英维克作为细分行业龙头,及时捕捉市场发展动向,以技术创新作为企业发展的主要驱动力。

公司产品线丰富,方案灵活凸显竞争优势。 英维克的机房温控节能产品主要针对数据中心、服务器机房、通信机房、高精度实验室等领域的房间级专用温控节能解决方案,用于对设备机房或实验室空间的精密温湿度和洁净度的控制调节。其中包括 CyberMate 机房专用空调&实验室专用空调、iFreecooling 多联式泵循环自然冷却机组、XRow 列间空调、XFlex 模块化间接蒸发冷却机组、XStorm 直接蒸发式高效风墙冷却系统、XSpace 微模块数据中心、XRack 微模块机柜解决方案、XGlacier 液冷温控系统等产品与解决方案。

公司的产品直接或通过系统集成商提供给数据中心业主、IDC 运营商、大型互联网公司,历年来公司已为腾讯、阿里巴巴、秦淮数据、万国数据、数据港、中国移动、中国电信、中国联通等用户的大型数据中心提供了大量高效节能的制冷产品及系统。此外,英维克还提供机柜温控节能产品主要针对无线通信基站、储能电站、智能电网各级输配电设备柜、电动 汽车 充电桩、ETC 门架系统等户外机柜或集装箱的应用场合提供温控节能解决方案,以及用于智能制造设备的机柜温控产品。

(二)佳力图:运营商市场企稳互联网市场突破,业绩有望边际改善

精密环境温控龙头,打造恒温恒湿解决方案。 公司产品应用于数据中心机房、通信基站以及其他恒温恒湿等精密环境,公司客户涵盖政府部门以及通信、金融、互联网、医疗、轨道交通、航空、能源等众多行业。公司产品服务于中国电信、中国联通、中国移动、华为等知名企业。目前,公司拥有精密空调设备、冷水机组两大类产品,十三个系列产品线,产品的先进性、可靠性以及节能环保的优势在行业中始终保持主导地位,同时公司依托在环境控制技术和节能技术方面的优势,为数据中心提供节能改造服务。

公司营业收入保持增长,净利润有所下滑。2022Q1,公司实现营收 1.22 亿元,同比下降10.69%,归母净利润 0.14 亿元,同比下降 36.68%,主要受原材料价格上涨、疫情反复、竞争加剧等因素影响。

2021 年佳力图实现营业收入 6.67 亿元,同比增长 6.68%,自 2017 年以来CAGR 达 9.73%,全年实现归母净利润 0.85 亿元,同比下滑 26.35%,2021 年,公司主要是受到以下因素影响导致利润下滑,(1)南京疫情停工待产、限电限产、疫情延时交付验收的各种困难;(2)随着市场规模的不断扩大,国内机房空调市场竞争较激烈;(3)原材料价格特别是大宗商品价格持续上涨,原材料成本占公司营业成本平均比例达 70%以上,是公司产品成本的主要组成部分,铜、镀锌钢板在 2021 年度一直呈现上涨趋势,采购价格较 2020 年上涨了 20%-40%,导致公司成本呈现大比例增长。

图 17. 公司受多因素影响毛利率有所下降(单位:%)

公司精密环境领域产品丰富,技术先进。 公司产品应用于数据中心机房、通信基站以及其他恒温恒湿等精密环境,公司客户涵盖政府部门以及通信、金融、互联网、医疗、轨道交通、航空、能源等众多行业。公司产品服务于中国电信、中国联通、中国移动、华为等知名企业。

目前,公司拥有精密空调设备、冷水机组两大类产品,十三个系列产品线,产品的先进性、可靠性以及节能环保的优势在行业中始终保持主导地位,同时公司依托在环境控制技术和节能技术方面的优势,为数据中心提供节能改造服务。

研发投入不断投入,空调效率持续提升。 虽然受到上游原材料价格急速上涨和疫情反复的不利影响,公司始终保持加强技术研发团队建设,加强与高等院校、行业专家等机构、人士的合作,推动尖端理论研究和实践,依托现有的研发体系,充分发挥节能控制方面的技术优势,加快机房智能节能管理系统的研制,进一步提高公司产品的性能指标,加强在空调换热器效率提升、供配电技术方面的基础性研究实力,全面提升公司在机房环境控制一体化解决方案方面的创新能力。

公司核心技术不断凸显。 2021 年末公司拥有的核心技术有 36 项,同时有包含带封闭式高效冷却循环的通信模块、数据中心冷冻站集中控制系统、机房空调 VRF 系统、CPU 液冷技术、VRF 技术在机房空调领域的初级应用等 28 项在研项目。

(三)其他节能相关公司情况

申菱环境是国内提供人工环境调控整体解决方案的领先企业,服务场景数值中心、电力、化工、能源、轨道交通、环保、军工等领域。产品主要可分为数据服务空调、工业空调、特种空调三部分。公司是华为数据服务空调的主要供应商,与华为存在多年合作关系。除了华为业务的快速增长,也获得了腾讯等互联网龙头企业的认可。此外,申菱环境在储能方面也有布局。

依米康致力于在通信机房、数据中心、智慧建设以及能源管理领域为客户提供产品和整体解决方案,包括从硬件到软件,从室内精密空调到室外磁悬浮主机,从一体机和微模块到大型数据中心的设计、生产和运维服务,助力客户面对能源和生态挑战。公司信息数据领域的关键设备、智能工程、物联软件、智慧服务四大板块业务均可为数据中心产业链提供产品及服务。

高澜股份是国内领先的纯水冷却设备专业供应商,是国家级专精特新“小巨人”企业,从大功率电力电子装置用纯水冷却设备及控制系统起家,产品广泛应用于发电、输电、配电及用电各个环节电力电子装置。2020 年以来,通过企业并购,其新能源 汽车 业务收入大幅提升,动力电池热管理产品、新能源 汽车 电子制造产品收入占总营收比重均大幅上涨,合计收入占总营收比重达到 48.88%,首次超过纯水冷却设备成为公司第一大收入来源。

节能技术突破不及预期导致供给端产能释放缓;

原材料短缺及价格上涨;

市场竞争加剧;

下游数据中心市场增速不及预期。

数据中心电能使用EEUE分析

世界能源委员会1995年对能源效率的定义为:减少提供同等能源服务的能源投入。 对于能耗居高不下的数据中心,研究提高能源效率具有深远的社会效益和经济效益。 除了能源效率之外,数据中心还有多项其他性能指标,按照国际标准组织ISO的定义统称为关键性能指标,或称为关键绩效指标,研究这些指标对于数据中心同样具有十分重要的意义。 在已经颁布的数据中心性能指标中最常见的是电能使用效率PUE。 在我国,PUE不但是数据中心研究、设计、设备制造、建设和运维人员最为熟悉的数据中心能源效率指标,也是政府评价数据中心工程性能的主要指标。 除了PUE之外,2007年以后还出台了多项性能指标,虽然知名度远不及PUE,但是在评定数据中心的性能方面也有一定的参考价值,值得关注和研究。 PUE在国际上一直是众说纷纭、莫衷一是的一项指标,2015年ASHRAE公开宣布,ASHRAE标准今后不再采用PUE这一指标,并于2016年下半年颁布了ASHRAE 90.4标准,提出了新的能源效率;绿色网格组织(TGG)也相继推出了新的能源性能指标。 对PUE和数据中心性能指标的讨论一直是国际数据中心界的热门议题。 鉴于性能指标对于数据中心的重要性、国内与国际在这方面存在的差距,以及在采用PUE指标过程中存在的问题,有必要对数据中心的各项性能指标,尤其是对PUE进行深入地研究和讨论。 1.性能指标 ISO给出的关键性能指标的定义为:表示资源使用效率值或是给定系统的效率。 数据中心的性能指标从2007年开始受到了世界各国的高度重视,相继推出了数十个性能指标。 2015年之后,数据中心性能指标出现了较大变化,一系列新的性能指标相继被推出,再度引发了国际数据中心界对数据中心的性能指标,尤其是对能源效率的关注,并展开了广泛的讨论。 2.PUE 2.1PUE和衍生效率的定义和计算方法 2.1.1电能使用效率PUE TGG和ASHRAE给出的PUE的定义相同:数据中心总能耗Et与IT设备能耗之比。 GB/T.3—2016给出的EEUE的定义为:数据中心总电能消耗与信息设备电能消耗之间的比值。 其定义与PUE相同,不同的是把国际上通用的PUE(powerusage effectiveness)改成了EEUE(electricenergy usage effectiveness)。 国内IT界和暖通空调界不少专业人士对于这一变更提出了不同的看法,根据Malone等人最初对PUE的定义,Et应为市电公用电表所测量的设备总功率,这里的Et就是通常所说的数据中心总的设备耗电量,与GB/T.3—2016所规定的Et应为采用电能计量仪表测量的数据中心总电能消耗的说法相同。 笔者曾向ASHRAE有关权威人士咨询过,他们认为如果要将“power”用“electricenergy”来替代,则采用“electricenergy consumption”(耗电量)更准确。 显然这一变更不利于国际交流。 虽然这只是一个英文缩写词的变更,但因为涉及到专业术语,值得商榷。 ISO给出的PUE的定义略有不同:计算、测量和评估在同一时期数据中心总能耗与IT设备能耗之比。 2.1.2部分电能使用效率pPUE TGG和ASHRAE给出的pPUE的定义相同:某区间内数据中心总能耗与该区间内IT设备能耗之比。 区间(zone)或范围( boundary)可以是实体,如集装箱、房间、模块或建筑物,也可以是逻辑上的边界,如设备,或对数据中心有意义的边界。 ISO给出的pPUE的定义有所不同:某子系统内数据中心总能耗与IT设备总能耗之比。 这里的“子系统”是指数据中心中某一部分耗能的基础设施组件,而且其能源效率是需要统计的,目前数据中心中典型的子系统是配电系统、网络设备和供冷系统。 2.1.3设计电能使用效率dPUE ASHRAE之所以在其标准中去除了PUE指标,其中一个主要原因是ASHRAE认为PUE不适合在数据中心设计阶段使用。 为此ISO给出了设计电能使用效率dPUE,其定义为:由数据中心设计目标确定的预期PUE。 数据中心的能源效率可以根据以下条件在设计阶段加以预测:1)用户增长情况和期望值;2)能耗增加或减少的时间表。 dPUE表示由设计人员定义的以最佳运行模式为基础的能耗目标,应考虑到由于数据中心所处地理位置不同而导致的气象参数(室外干球温度和湿度)的变化。 2.1.4期间电能使用效率iPUE ISO给出的期间电能使用效率iPUE的定义为:在指定时间测得的PUE,非全年值。 2.1.5电能使用效率实测值EEUE-R GB/T.3—2016给出的EEUE-R的定义为:根据数据中心各组成部分电能消耗测量值直接得出的数据中心电能使用效率。 使用EEUE-R时应采用EEUE-Ra方式标明,其中a用以表明EEUE-R的覆盖时间周期,可以是年、月、周。 2.1.6电能使用效率修正值EEUE-X GB/T.3—2016给出的EEUE-X的定义为:考虑采用的制冷技术、负荷使用率、数据中心等级、所处地域气候环境不同产生的差异,而用于调整电能使用率实测值以补偿其系统差异的数值。 2.1.7采用不同能源的PUE计算方法 数据中心通常采用的能源为电力,当采用其他能源时,计算PUE时需要采用能源转换系数加以修正。 不同能源的转换系数修正是评估数据中心的一次能源使用量或燃料消耗量的一种方法,其目的是确保数据中心购买的不同形式的能源(如电、天然气、冷水)可以进行公平地比较。 例如,如果一个数据中心购买当地公用事业公司提供的冷水,而另一个数据中心采用由电力生产的冷水,这就需要有一个系数能使得所使用的能源在相同的单位下进行比较,这个系数被称为能源转换系数,它是一个用来反映数据中心总的燃料消耗的系数。 当数据中心除采用市电外,还使用一部分其他能源时,就需要对这种能源进行修正。 2.1.8PUE和EEUE计算方法的比较 如果仅从定义来看,PUE和EEUE的计算方法十分简单,且完全相同。 但是当考虑到计算条件的不同,需要对电能使用效率进行修正时,2种效率的计算方法则有所不同。 1)PUE已考虑到使用不同能源时的影响,并给出了修正值和计算方法;GB/T.3—2016未包括可再生能源利用率,按照计划这一部分将在GB/T.4《可再生能源利用率》中说明。 2)PUE还有若干衍生能源效率指标可供参考,其中ISO提出的dPUE弥补了传统PUE的不足;EEUE则有类似于iPUE的指标EEUE-Ra。 3)EEUE分级(见表1)与PUE分级(见表2)不同。 4)EEUE同时考虑了安全等级、所处气候环境、空调制冷形式和IT设备负荷使用率的影响。 ASHRAE最初给出了19个气候区的PUE最大限值,由于PUE已从ASHRAE标准中去除,所以目前的PUE未考虑气候的影响;ISO在计算dPUE时,要求考虑气候的影响,但是如何考虑未加说明;PUE也未考虑空调制冷形式和负荷使用率的影响,其中IT设备负荷率的影响较大,应加以考虑。 2.2.PUE和EEUE的测量位置和测量方法 2.2.1PUE的测量位置和测量方法 根据IT设备测点位置的不同,PUE被分成3个类别,即PUE1初级(提供能源性能数据的基本评价)、PUE2中级(提供能源性能数据的中级评价)、PUE3高级(提供能源性能数据的高级评价)。 PUE1初级:在UPS设备输出端测量IT负载,可以通过UPS前面板、UPS输出的电能表以及公共UPS输出总线的单一电表(对于多个UPS模块而言)读取。 在数据中心供电、散热、调节温度的电气和制冷设备的供电电网入口处测量进入数据中心的总能量。 基本监控要求每月至少采集一次电能数据,测量过程中通常需要一些人工参与。 PUE2中级:通常在数据中心配电单元前面板或配电单元变压器二次侧的电能表读取,也可以进行单独的支路测量。 从数据中心的电网入口处测量总能量,按照中等标准的检测要求进行能耗测量,要求每天至少采集一次电能数据。 与初级相比,人工参与较少,以电子形式采集数据为主,可以实时记录数据,预判未来的趋势走向。 PUE3高级:通过监控带电能表的机架配电单元(即机架式电源插座)或IT设备,测量数据中心每台IT设备的负载(应该扣除非IT负载)。 在数据中心供电的电网入口处测量总能量,按照高标准的检测要求进行能耗测量,要求至少每隔15min采集一次电能数据。 在采集和记录数据时不应该有人工参与,通过自动化系统实时采集数据,并支持数据的广泛存储和趋势分析。 所面临的挑战是以简单的方式采集数据,满足各种要求,最终获取数据中心的各种能量数据。 对于初级和中级测量流程,建议在一天的相同时间段测量,数据中心的负载尽量与上次测量时保持一致,进行每周对比时,测量时间应保持不变(例如每周周三)。 2.2.2EEUE的测量位置和测量方法 1)Et测量位置在变压器低压侧,即A点; 2)当PDU无隔离变压器时,EIT测量位置在UPS输出端,即B点; 3)当PDU带隔离变压器时,EIT测量位置在PDU输出端,即C点; 4)大型数据中心宜对各主要系统的耗电量分别计量,即E1,E2,E3点; 5)柴油发电机馈电回路的电能应计入Et,即A1点; 6)当采用机柜风扇辅助降温时,EIT测量位置应为IT负载供电回路,即D点; 7)当EIT测量位置为UPS输出端供电回路,且UPS负载还包括UPS供电制冷、泵时,制冷、泵的能耗应从EIT中扣除,即扣除B1和B2点测得的电量。 2.2.3PUE和EEUE的测量位置和测量方法的差异 1)PUE的Et测量位置在电网输入端、变电站之前。 而GB/T.3—2016规定EEUE的Et测量位置在变压器低压侧。 数据中心的建设有2种模式:①数据中心建筑单独设置,变电站自用,大型和超大型数据中心一般采用这种模式;②数据中心置于建筑物的某一部分,变电站共用,一般为小型或中型数据中心。 由于供电局的收费都包括了变压器的损失,所以为了准确计算EEUE,对于前一种模式,Et测量位置应该在变压器的高压侧。 2)按照2.2.2节第6条,在计算EIT时,应减去机柜风机的能耗。 应该指出的是,机柜风机不是辅助降温设备,起到降温作用的是来自空调设备的冷空气,降温的设备为空调换热器,机柜风机只是起到辅助传输冷风的作用,因此机柜风机不应作为辅助降温设备而计算其能耗。 在GB/T.3征求意见时就有人提出:机柜风机的能耗很难测量,所以在实际工程中,计算PUE时,EIT均不会减去机柜风机的能耗。 在美国,计算PUE时,机柜风机的能耗包括在EIT中。 3)PUE的测点明显多于GB/T.3—2016规定的EEUE的测点。 2.3.PUE存在的问题 1)最近两年国内外对以往所宣传的PUE水平进行了澄清。 我国PUE的真实水平也缺乏权威调查结果。 GB/T.3—2016根据国内实际状况,将一级节能型数据中心的EEUE放宽到1.0~1.6,其上限已经超过了国家有关部委提出的绿色数据中心PUE应低于1.5的要求,而二级比较节能型数据中心的EEUE规定为1.6~1.8,应该说这样的规定比较符合国情。 2)数据中心总能耗Et的测量位置直接影响到PUE的大小,因此应根据数据中心建筑物市电变压器所承担的荷载组成来决定其测量位置。 3)应考虑不同负荷率的影响。 当负荷率低于30%时,不间断电源UPS的效率会急剧下降,PUE值相应上升。 对于租赁式数据中心,由于用户的进入很难一步到位,所以数据中心开始运行后,在最初的一段时间内负荷率会较低,如果采用设计PUE,也就是满负荷时的PUE来评价或验收数据中心是不合理的。 4)数据中心的PUE低并非说明其碳排放也低。 完全采用市电的数据中心与部分采用可再生能源(太阳能发电、风电等),以及以燃气冷热电三联供系统作为能源的数据中心相比,显然碳排放指标更高。 数据中心的碳排放问题已经引起国际上广泛地关注,碳使用效率CUE已经成为数据中心重要的关键性能指标,国内对此的关注度还有待加强。 5)GB/T.3—2016规定,在计算EIT时,应减去机柜风机的耗能。 关于机柜风机的能耗是否应属于IT设备的能耗,目前国内外有不同的看法,其中主流观点是服务器风机的能耗应属于IT设备的能耗,其原因有二:一是服务器风机是用户提供的IT设备中的一个组成部分,自然属于IT设备;二是由于目前服务器所采用的风机基本上均为无刷直流电动机驱动的风机(即所谓EC电机),风机的风量和功率随负荷变化而改变,因此很难测量风机的能耗。 由于数据中心风机的设置对PUE的大小影响很大,需要认真分析。 从实际使用和节能的角度出发,有人提出将服务器中的风机取消,而由空调风机取代。 由于大风机的效率明显高于小风机,且初投资也可以减少,因此这种替代方法被认为是一个好主意,不过这是一个值得深入研究的课题。 6)国内相关标准有待进一步完善。 GB/T.3—2016《数据中心资源利用第3部分:电能能效要求和测量方法》的发布,极大地弥补了国内标准在数据中心电能能效方面的不足;同时,GB/T.3—2016标准颁布后,也引起了国内学术界和工程界的热议。 作为一个推荐性的国家标准如何与已经颁布执行的强制性行业标准YD 5193—2014《互联网数据中心(IDC)工程设计规范》相互协调?在标准更新或升级时,包括内容相似的国际标准ISOIEC -2-2016在内的国外相关标准中有哪些内容值得借鉴和参考?标准在升级为强制性国家标准之前相关机构能否组织就其内容进行广泛的学术讨论?都是值得考虑的重要课题。 ASHRAE在发布ASHRAE90.4标准时就说明,数据中心的标准建立在可持续发展的基础上,随着科学技术的高速发展,标准也需要不断更新和创新。 7)PUE的讨论已经相当多,事实上作为大数据中心的投资方和运营方,更关心的还是数据中心的运行费用,尤其是电费和水费。 目前在数据中心关键性能指标中尚缺乏一个经济性指标,使得数据中心,尤其是大型数据中心和超大型数据中心的经济性无法体现。 2.4.PUE的比较 不同数据中心的PUE值不应直接进行比较,但是条件相似的数据中心可以从其他数据中心所提供的测量方法、测试结果,以及数据特性的差异中获益。 为了使PUE比较结果更加公平,应全面考虑数据中心设备的使用时间、地理位置、恢复能力、服务器可用性、基础设施规模等。 3.其他性能指标 3.1.ASHRAE90.4 ASHRAE90.4-2016提出了2个新的能源效率指标,即暖通空调负载系数MLC和供电损失系数ELC。 但这2个指标能否为国际IT界接受,还需待以时日。 3.1.1暖通空调负载系数MLC ASHRAE对MLC的定义为:暖通空调设备(包括制冷、空调、风机、水泵和冷却相关的所有设备)年总耗电量与IT设备年耗电量之比。 3.1.2供电损失系数ELC ASHRAE对ELC的定义为:所有的供电设备(包括UPS、变压器、电源分配单元、布线系统等)的总损失。 3.2.TGG白皮书68号 2016年,TGG在白皮书68号中提出了3个新的能源效率指标,即PUE比(PUEr)、IT设备热一致性(ITTC)和IT设备热容错性(ITTR),统称为绩效指标(PI)。 这些指标与PUE相比,不但定义不容易理解,计算也十分困难,能否被IT界接受,还有待时间的考验。 3.2.1PUE比 TGG对PUEr的定义为:预期的PUE(按TGG的PUE等级选择)与实测PUE之比。 3.2.2IT设备热一致性ITTC TGG对ITTC的定义为:IT设备在ASHRAE推荐的环境参数内运行的比例。 服务器的进风温度一般是按ASHRAE规定的18~27℃设计的,但是企业也可以按照自己设定的服务器进风温度进行设计,在此进风温度下,服务器可以安全运行。 IT设备热一致性表示符合ASHRAE规定的服务器进风温度的IT负荷有多少,以及与总的IT负荷相比所占百分比是多少。 例如一个IT设备总负荷为500kW的数据中心,其中满足ASHRAE规定的服务器进风温度的IT负荷为450kW,则该数据中心的IT设备热一致性为95%。 虽然TGG解释说,IT设备热一致性涉及的只是在正常运行条件下可接受的IT温度,但是IT设备热一致性仍然是一个很难计算的能源效率,因为必须知道:1)服务器进风温度的范围,包括ASHRAE规定的和企业自己规定的进风温度范围;2)测点位置,需要收集整个数据中心服务器各点的进风温度,由人工收集或利用数据中心基础设施管理(DCIM)软件来统计。 3.2.3IT设备热容错性ITTR TGG对ITTR的定义为:当冗余制冷设备停机,或出现故障,或正常维修时,究竟有多少IT设备在ASHRAE允许的或建议的送风温度32℃下送风。 按照TGG的解释,ITTR涉及的只是在出现冷却故障和正常维修运行条件下可接受的IT温度,但是ITTR也是一个很难确定的参数。 ITTR的目的是当冗余冷却设备停机,出现冷却故障或在计划维护活动期间,确定IT设备在允许的入口温度参数下(<32℃)运行的百分比,以便确定数据中心冷却过程中的中断或计划外维护的性能。 这个参数很难手算,因为它涉及到系统操作,被认为是“计划外的”条件,如冷却单元的损失。 3.3.数据中心平均效率CADE 数据中心平均效率CADE是由麦肯锡公司提出,尔后又被正常运行时间协会(UI)采用的一种能源效率。 CADE提出时自认为是一种优于其他数据中心能源效率的指标。 该指标由于被UI所采用,所以直到目前仍然被数量众多的权威著作、文献认为是可以采用的数据中心性能指标之一。 但是笔者发现这一性能指标的定义并不严谨,容易被误解。 另外也难以测量和计算。 该指标的提出者并未说明IT资产效率如何测量,只是建议ITAE的默认值取5%,所以这一指标迄今为止未能得到推广应用。 3.4.IT电能使用效率ITUE和总电能使用效率TUE 2013年,美国多个国家级实验室鉴于PUE的不完善,提出了2个新的能源效率——总电能使用效率TUE和IT电能使用效率ITUE。 提出ITUE和TUE的目的是解决由于计算机技术的发展而使得数据中心计算机配件(指中央处理器、内存、存储器、网络系统,不包括IT设备中的电源、变压器和机柜风机)的能耗减少时,PUE反而增加的矛盾。 但是这2个性能指标也未得到广泛应用。 3.5.单位能源数据中心效率DPPE 单位能源数据中心效率DPPE是日本绿色IT促进协会(GIPC)和美国能源部、环保协会、绿色网格,欧盟、欧共体、英国计算机协会共同提出的一种数据中心性能指标。 GIPC试图将此性能指标提升为国际标准指标。 3.6.水利用效率WUE TGG提出的水利用效率WUE的定义为:数据中心总的用水量与IT设备年耗电量之比。 数据中心的用水包括:冷却塔补水、加湿耗水、机房日常用水。 根据ASHRAE的调查结果,数据中心基本上无需加湿,所以数据中心的用水主要为冷却塔补水。 采用江河水或海水作为自然冷却冷源时,由于只是取冷,未消耗水,可以不予考虑。 民用建筑集中空调系统由于总的冷却水量不大,所以判断集中空调系统的性能时,并无用水量效率之类的指标。 而数据中心由于全年制冷,全年的耗水量居高不下,已经引起了国内外,尤其是水资源贫乏的国家和地区的高度重视。 如何降低数据中心的耗水量,WUE指标是值得深入研究的一个课题。 3.7.碳使用效率CUE TGG提出的碳使用效率CUE的定义为:数据中心总的碳排放量与IT设备年耗电量之比。 CUE虽然形式简单,但是计算数据中心总的碳排放量却很容易出错。 碳排放量应严格按照联合国气象组织颁布的计算方法进行计算统计。

数据中心能耗指标

数据中心能耗指标通常包括以下几种:

1. 平均功率因数:这是衡量数据中心电能利用效率的指标,数值越接近1越好。

2. 总能耗:这是数据中心所有设备在一定时间内消耗的电能总量。

3. 能耗强度:单位IT负载能耗(W/I)或单位负载能耗(W/VA),表示每个单位IT负载或每个负载点的能耗,数值越低越好。

4. 峰值能耗:数据中心在某些设备满负荷或突发高负载情况下产生的最大能耗。

5. 能耗利用率:衡量数据中心设备实际使用能源的效率,通常以百分比表示。数值越高,表示设备能源使用效率越高。

6. 能耗效率:衡量数据中心整体运营效率的指标,通常以电能转化为IT服务的百分比表示。数值越高,表示数据中心的运营效率越高。

此外,一些数据中心还使用其他指标,如PUE(电源使用效率)、绿证评级(针对绿色数据中心)、碳排放量等,这些指标主要用于评估数据中心的能源利用和环保表现。

需要注意的是,数据中心能耗指标因数据中心的规模、设备类型、负载特性等因素而有所不同。因此,在实际应用中,需要根据具体情况选择合适的能耗指标进行评估和优化。

工信部等三部门联合发文:大型和超大型数据中心PUE值不高于1.4

工信部、国家机关事务管理局、国家能源局近日联合印发《关于加强绿色数据中心建设的指导意见》(下简称《意见》),明确提出要建立健全绿色数据中心标准评价体系和能源资源监管体系,到2022年,数据中心平均能耗基本达到国际先进水平。 《意见》指出,引导大型和超大型数据中心设计电能使用效率值不高于1.4;力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 基本原则 政策引领、市场主导。 充分发挥市场配置资源的决定性作用,调动各类市场主体的积极性、创造性。 更好发挥政府在规划、政策引导和市场监管中的作用,着力构建有效激励约束机制,激发绿色数据中心建设活力。 改造存量、优化增量。 建立绿色运维管理体系,加快现有数据中心节能挖潜与技术改造,提高资源能源利用效率。 强化绿色设计、采购和施工,全面实现绿色增量。 创新驱动、服务先行。 大力培育市场创新主体,加快建立绿色数据中心服务平台,完善标准和技术服务体系,推动关键技术、服务模式的创新,引导绿色水平提升。 主要目标 建立健全绿色数据中心标准评价体系和能源资源监管体系,打造一批绿色数据中心先进典型,形成一批具有创新性的绿色技术产品、解决方案,培育一批专业第三方绿色服务机构。 到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的电能使用效率值达到1.4以下,高能耗老旧设备基本淘汰,水资源利用效率和清洁能源应用比例大幅提升,废旧电器电子产品得到有效回收利用。 重点任务 (一)提升新建数据中心绿色发展水平 1.强化绿色设计 加强对新建数据中心在IT设备、机架布局、制冷和散热系统、供配电系统以及清洁能源利用系统等方面的绿色化设计指导。 鼓励采用液冷、分布式供电、模块化机房以及虚拟化、云化IT资源等高效系统设计方案,充分考虑动力环境系统与IT设备运行状态的精准适配;鼓励在自有场所建设自然冷源、自有系统余热回收利用或可再生能源发电等清洁能源利用系统;鼓励应用数值模拟技术进行热场仿真分析,验证设计冷量及机房流场特性。 引导大型和超大型数据中心设计电能使用效率值不高于1.4。 2.深化绿色施工和采购 引导数据中心在新建及改造工程建设中实施绿色施工,在保证质量、安全基本要求的同时,最大限度地节约能源资源,减少对环境负面影响,实现节能、节地、节水、节材和环境保护。 严格执行《电器电子产品有害物质限制使用管理办法》和《电子电气产品中限用物质的限量要求》(GB/T)等规范要求,鼓励数据中心使用绿色电力和满足绿色设计产品评价等要求的绿色产品,并逐步建立健全绿色供应链管理制度。 (二)加强在用数据中心绿色运维和改造 1.完善绿色运行维护制度 指导数据中心建立绿色运维管理体系,明确节能、节水、资源综合利用等方面发展目标,制定相应工作计划和考核办法;结合气候环境和自身负载变化、运营成本等因素科学制定运维策略;建立能源资源信息化管控系统,强化对电能使用效率值等绿色指标的设置和管理,并对能源资源消耗进行实时分析和智能化调控,力争实现机械制冷与自然冷源高效协同;在保障安全、可靠、稳定的基础上,确保实际能源资源利用水平不低于设计水平。 2.有序推动节能与绿色化改造 有序推动数据中心开展节能与绿色化改造工程,特别是能源资源利用效率较低的在用老旧数据中心。 加强在设备布局、制冷架构、外围护结构(密封、遮阳、保温等)、供配电方式、单机柜功率密度以及各系统的智能运行策略等方面的技术改造和优化升级。 鼓励对改造工程进行绿色测评。 力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 3.加强废旧电器电子产品处理 加快高耗能设备淘汰,指导数据中心科学制定老旧设备更新方案,建立规范化、可追溯的产品应用档案,并与产品生产企业、有相应资质的回收企业共同建立废旧电器电子产品回收体系。 在满足可靠性要求的前提下,试点梯次利用动力电池作为数据中心削峰填谷的储能电池。 推动产品生产、回收企业加快废旧电器电子产品资源化利用,推行产品源头控制、绿色生产,在产品全生命周期中最大限度提升资源利用效率。 (三)加快绿色技术产品创新推广 1.加快绿色关键和共性技术产品研发创新 鼓励数据中心骨干企业、科研院所、行业组织等加强技术协同创新与合作,构建产学研用、上下游协同的绿色数据中心技术创新体系,推动形成绿色产业集群发展。 重点加快能效水效提升、有毒有害物质使用控制、废弃设备及电池回收利用、信息化管控系统、仿真模拟热管理和可再生能源、分布式供能、微电网利用等领域新技术、新产品的研发与创新,研究制定相关技术产品标准规范。 2.加快先进适用绿色技术产品推广应用 加快绿色数据中心先进适用技术产品推广应用,重点包括:一是高效IT设备,包括液冷服务器、高密度集成IT设备、高转换率电源模块、模块化机房等;二是高效制冷系统,包括热管背板、间接式蒸发冷却、行级空调、自动喷淋等;三是高效供配电系统,包括分布式供能、市电直供、高压直流供电、不间断供电系统ECO模式、模块化UPS等;四是高效辅助系统,包括分布式光伏、高效照明、储能电池管理、能效环境集成监控等。 (四)提升绿色支撑服务能力 1.完善标准体系 充分发挥标准对绿色数据中心建设的支撑作用,促进绿色数据中心提标升级。 建立健全覆盖设计、建设、运维、测评和技术产品等方面的绿色数据中心标准体系,加强标准宣贯,强化标准配套衔接。 加强国际标准话语权,积极推动与国际标准的互信互认。 以相关测评标准为基础,建立自我评价、社会评价和政府引导相结合的绿色数据中心评价机制,探索形成公开透明的评价结果发布渠道。 2.培育第三方服务机构 加快培育具有公益性质的第三方服务机构,鼓励其创新绿色评价及服务模式,向数据中心提供咨询、检测、评价、审计等服务。 鼓励数据中心自主利用第三方服务机构开展绿色评测,并依据评测结果开展有实效的绿色技术改造和运维优化。 依托高等院校、科研院所、第三方服务等机构建立多元化绿色数据中心人才培训体系,强化对绿色数据中心人才的培养。 (五)探索与创新市场推动机制 鼓励数据中心和节能服务公司拓展合同能源管理,研究节能量交易机制,探索绿色数据中心融资租赁等金融服务模式。 鼓励数据中心直接与可再生能源发电企业开展电力交易,购买可再生能源绿色电力证书。 探索建立绿色数据中心技术创新和推广应用的激励机制和融资平台,完善多元化投融资体系。 保障措施 (一)加强组织领导。 工业和信息化部、国家机关事务管理局、国家能源局建立协调机制,强化在政策、标准、行业管理等方面的沟通协作,加强对地方相关工作的指导。 各地工业和信息化、机关事务、能源主管部门要充分认识绿色数据中心建设的重要意义,结合实际制定相关政策措施,充分发挥行业协会、产业联盟等机构的桥梁纽带作用,切实推动绿色数据中心建设。 (二)加强行业监管。 在数据中心重点应用领域和地区,了解既有数据中心绿色发展水平,研究数据中心绿色发展现状。 将重点用能数据中心纳入工业和通信业节能监察范围,督促开展节能与绿色化改造工程。 推动建立数据中心节能降耗承诺、信息依法公示、社会监督和违规惩戒制度。 遴选绿色数据中心优秀典型,定期发布《国家绿色数据中心名单》。 充分发挥公共机构特别是党政机关在绿色数据中心建设的示范引领作用,率先在公共机构组织开展数据中心绿色测评、节能与绿色化改造等工作。 (三)加强政策支持。 充分利用绿色制造、节能减排等现有资金渠道,发挥节能节水、环境保护专用设备所得税优惠政策和绿色信贷、首台(套)重大技术装备保险补偿机制支持各领域绿色数据中心创建工作。 优先给予绿色数据中心直供电、大工业用电、多路市电引入等用电优惠和政策支持。 加大政府采购政策支持力度,引导国家机关、企事业单位优先采购绿色数据中心所提供的机房租赁、云服务、大数据等方面服务。 (四)加强公共服务。 整合行业现有资源,建立集政策宣传、技术交流推广、人才培训、数据分析诊断等服务于一体的国家绿色数据中心公共服务平台。 加强专家库建设和管理,发挥专家在决策建议、理论指导、专业咨询等方面的积极作用。 持续发布《绿色数据中心先进适用技术产品目录》,加快创新成果转化应用和产业化发展。 鼓励相关企事业单位、行业组织积极开展技术产品交流推广活动,鼓励有条件的企业、高校、科研院所针对绿色数据中心关键和共性技术产品建立实验室或者工程中心。 (五)加强国际交流合作。 充分利用现有国际合作交流机制和平台,加强在绿色数据中心技术产品、标准制定、人才培养等方面的交流与合作,举办专业培训、技术和政策研讨会、论坛等活动,打造一批具有国际竞争力的绿色数据中心,形成相关技术产品整体解决方案。 结合“一带一路”倡议等国家重大战略,加快开拓国际市场,推动优势技术和服务走出去。 结语 据悉,在数据中心当前的后期运营,能耗是最大成本,占比超过50%。 降低能耗效率(PUE)值,一直是业界相关部门关心的重点。 工信部在2017年4月发布的《关于加强“十 三五”信息通信业节能减排工作的指导意见》中指出:“十二五”期间新建大型数据中心的能耗效率(PUE)要普遍低于1.5;到2020年,新建大型、超大型数据中心的能耗效率(PUE)值必须达到1.4 以下。 去年3月,工信部首次公布的《全国数据中心应用发展指引》中称:全国超大型数据中心平均PUE(平均电能使用效率)为1.50,大型数据中心平均PUE为1.69。 而根据“十三五规划”,到2020年,新建大型云计算数据中心PUE值将不得高于1.4。 如今,三部门联手针对绿色数据中心建设进一步提出了明确的指导意见。 在这样的大背景下,数据中心运营商如何运用新技术、新架构降低能源降耗,实现数据中心的绿色发展,将成为行业的关注热点,与此同时,节能降耗的大趋势之下,也将带来更多的市场机遇。


相关标签: 衡量数据中心特性的指标关键指标和最佳实践衡量数据中心能效管理性能

本文地址:http://www.hyyidc.com/article/18088.html

上一篇:数据中心能效管理的未来可再生能源物联网和...
下一篇:数据中心能效管理的创新方法降低能源消耗和...

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="http://www.hyyidc.com/" target="_blank">好有缘导航网</a>