数据中心的能耗管理如何进行?随着数据中心的数量和规模不断扩大,能耗管理成为了数码领域中的热门话题。 数据中心作为信息科技的核心组成部分,其能源消耗量日益增加,也给能源市场带来了不少挑战。 因此,数据中心能耗管理也成为了企业可持续发展的一个方向。 本文将探讨数据中心例如如何进行能耗管理。 数据中心能耗的特点相对于普通办公场所,数据中心具有以下能耗特点:1.高能耗量:每年全球数据中心的用电量相当于1250亿度,相当于瑞士全国一年的耗电量。 2.高功率密度:通常的办公区,大约每平方米的用电功率只有100瓦,而合格数据中心的功率密度可以达到每平方米20千瓦左右。 3.高制冷负荷:数据中心内大量运转的服务器和网络设备需要空调制冷,这直接导致数据中心的制冷负荷高。 因此,了解数据中心的这些能耗特点,有助于我们更好地进行能耗管理。 数据中心能耗管理的目标数据中心能耗管理的主要目标是尽可能提高数据中心的效率,控制不必要的能源浪费,减少能源消耗,降低运营成本,并且确保数据中心可持续发展。 数据中心能耗的管理方法以下是数据中心能耗管理的一些方法:1.通过数据分析实现能源管理。 通过基于大数据的分析服务,数据中心可以更准确地了解自身的能源消耗和设备负载情况,从而进行优化和调整。 2.数字化能源管理。 通过智能化监控和控制设备,数据中心管理人员可以更准确地掌控设备的运行状况,及时发现问题,以获得更高的能源效率。 3.提高服务器的利用率。 通过虚拟化技术,可以大幅减少数据中心内使用的服务器数量,从而实现节能。 4.优化空调系统。 通过优化空气流量,提高温度调节效率以及利用化学冷凝等技术,在降低空调能耗的同时也保证了设备的正常运行。 5.使用绿色能源。 通过使用太阳能、风能等可再生能源,数据中心可以大幅减少能源消耗,从而更好地实现可持续发展。 结论数据中心能耗管理是一个重要的环节,可以帮助数据中心保持在一个良好的运行状态,实现节能、减排和可持续发展。 选择合适的能源管理工具和方法,可以帮助企业更好地管理自身的数据中心能耗,从而带来更好的运营效益和更为环保的发展。
数据机房的空调系统节能对于降低能源成本和提高可持续性至关重要。通风降温设备的选择是其中一个关键因素。以下是一些数据机房空调系统节能措施以及如何选择通风降温设备的建议:
数据机房空调系统节能措施:
通风降温设备可以作为数据机房空调系统的补充,帮助降低温度和提高空气质量。以下是如何选择通风降温设备的建议:
能耗管控与节能方法如下:
能耗管控的方法:
1、建立能源管理系统。
企业可以通过建立完善的能源管理系统,实现对能源消耗的全面掌控。该系统包括能源监测设备、数据采集系统、能源管理软件等,能够实现能源数据的实时监测、分析和报表生成,帮助企业了解能源消耗情况,并及时制定相应的节能措施。
2、实施能源审计。
能源审计是对企业能源消耗的评估和分析,通过分析能源消耗情况,找出能源浪费和节能潜力,制定相应的节能措施,降低能源消耗。企业可以委托专业机构进行能源审计,也可以自行实施能源审计。
3、建立能源管理团队。
企业可以建立专门的能源管理团队,负责能源消耗的监测、分析和管理,制定和执行节能措施,降低能源消耗。该团队可以由企业内部人员组成,也可以委托专业机构进行管理。
节能的方法:
1、优化能源利用方式。
企业可以通过优化能源利用方式,降低能源消耗。如采用高效节能的设备和技术,实行能源回收利用,优化生产工艺流程等。
2、实行能源管理制度。
企业可以制定能源管理制度,规范能源使用行为,减少能源浪费。制度包括能源使用计划、能源使用标准、能源使用考核等内容,通过对能源使用的管控,降低能源消耗。
3、推广可再生能源。
企业可以推广可再生能源的使用,如太阳能、风能、水能等。可再生能源具有环保、可持续的特点,能够降低能源消耗和排放。
4、加强员工培训。
企业可以加强员工培训,提高员工节能意识,激发员工节能积极性。通过培训,让员工了解能源消耗的重要性,掌握节能技能,减少能源浪费。
数据中心综合布线采用结构化,高密度,合理的线缆路由管理减少对冷热通道的阻碍,光铜产品的选取大幅提升网络带宽,这些措施能为节能降耗做出相关大的贡献,从而提升数据中心的能效比。 根据在众多构建绿色数据中心的经验,综合布线的合理规划和布局会节省数据中心2-3%的电力。 这主要取决于如下的几点:1、合理规划数据中心合理有效的线缆布局决定了网络物理层的基础,对于节约电能、节能降耗起到重要作用。 要据TIA-942标准,将数据中心划分成MDA,HDA,EDA,ZDA等几大区域。 从MDA到HAD采用OM3预连接光缆,从而优化主配线区到列头柜之间的连接。 解决从主交换路由到每一列机柜的列头柜二层交换机的连接。 每列列头柜交换机及KVM设备通过絧缆或光缆跳线再连接到每一个服务器上去。 它的优点是节省从主交换机到用户服务器线缆的数量,从而减少对机房冷热通道的阻隔。 目前,大多数数据中心内整体设计所支持的数据传输速率为1Gb/s。 但是,根据网络和云计算的发展普遍共识是,传输速率会向10Gb/s推进。 可以肯定的是,在未来的3~5年的时间里,支持10Gb/s传输的链路会成为数据中心的主流。 基于此种情况,ISO以及TIA制定了关于光纤和铜缆支持10Gb以太网传输的标准。 数据中心的规划建设应充分考虑到适用性,立足现有需求,并兼顾未来的拓展。 2.高密度,高带宽提升数据中心基础设施的利用率在相同的数据中心面积基础上,通过提高数据中心密度来达到有效的利用,在网络物理连接层面主要体现在高密度线缆管理方面。 角形配线架无需增加理线设备;高密度光纤配线架可大幅提升光纤配线密度;桥架式光铜混合配线架使用于机柜上方可支持288芯光纤,减少柜内空间占用;MPO连接器是一种多芯的光纤连接器,像IEC-7,TIA/EIA568C.3等标准中都有MPO连接器的规定。 MPO最近几年也广泛应用于数据中心。 数据中心采用MPO的好处在于密度特别高,至少是普通LC连接器的3倍以上。 以上这些新产品技术的应用,可以有效的节约40%以上的机柜空间,提升数据中心密度。 合理的数据中心布局,对于光铜缆路由的合理设计可大量节省线缆投入。 3.优质的产品选型,精准的制造工艺布线系统的绿色节能还体现在散热性上,线缆的散热性好了,可以节约大量的机房空调所消耗的电量。 直径更小的Cat6A万兆屏蔽电缆和直径更小的光纤解决方案意味着对制冷系统效率的影响被减到最低,屏蔽解决方案因为更低的信噪比需求可以有效地减少服务器设备驱动屏蔽铜缆网络所需的功率消耗,光纤布线系统相对高速铜缆系统需要消耗的功率更低。 绿色数据中心布线系统较之有源的网络设备,将持续工作15年,甚至更久。 优质的产品,精准的制造工艺是延长综合布线系统寿命及稳定的重要保证。 延长整体系统的使用寿命,也是减少重复投资,绿色节能的重要体现。 4.高性能、高传输,精益求精,精细化管理与实施根据摩尔定律所确定的计算机设备热负荷规律,数据中心的配置无法实现有效的管理。 数据中心环境需要考虑所安装的解决方案及如何安装和部署这些解决方案。 在最近10年中,各公司的数据中心和楼宇配线设施中都大量地增加了网络设备数目,这些设备在增加关键性功能的同时,却使得数据中心的管理变得复杂。 在全球发展放缓经济环境中,投资方都在期望简化自己数据中心管理,以创建一个安全、易于管理且能够根据不可预知的工作负荷和业务需求的变化灵活调整的网络基础架构。 采用良好的布线系统管理软件有利于系统的可维护性,保持布线系统最大的效率,而不会因为布线管理混乱所产生许多没有利用的链路产生不必要的能源消耗。 总结最后,随着全球气候日趋变暖和能源日趋紧张、能源成本不断上涨,数据中心正面临着降低能耗、提高资源利用率、节约成本的严峻挑战,而绿色也成为未来数据中心的必然发展趋势。 在绿色数据中心建设过程中,绿色环保和绿色节能是最重要的两个方面。 数据中心内不断增加的新需求对绿色布线的要求呈动态的多样性,在规划选择综合布线系统时,需要在带宽、灵活性、可扩展性和成本等要素之间寻求平衡。 综合布线作为基础系统在更小的空间内提供更高的带宽,作为绿色无源系统尽可能的降低能耗与增加环保意识,已成为当今许多数据中心绿色布线部署的新要求。
1. 电能技术创新 电能作为最常用的二次能源,在发达国家的能源消费中占据一半以上,它依赖于煤、石油、天然气和铀矿等一次能源的转化。 电能系统的核心包括发电、传输和使用三个环节。 电能在传输过程中具有无可比拟的优势,能够以光速迅速传递能量,因此电气化率成为衡量国家现代化水平的重要指标。 目前,几乎所有国家都采用50Hz或60Hz的三相交流电进行远距离输电和驱动旋转设备。 2. 提升设备能效比 在未来的能源应用中,能源效率(能效)和碳排放的管理至关重要,这是构建无碳壁垒的基础。 节约电力比生产同等电力更为重要。 ICT领域在节能减排方面拥有巨大潜力。 通常情况下,IT或通讯设备的能耗仅占数据中心或基站总能耗的一半以下,即PUE值(总能耗与IT或CT设备能耗之比)大于2。 因此,实现节能减排需要一个综合的能效管理系统,它能够精确测量各个部件的功耗,并实现全天候的数据采集、监控、分析和综合管理。 为了将PUE值降至1.2以下,需要设计以高能效为核心的产品和端到端解决方案,例如在数据中心采用的综合管理IT机房、行级精确温控和能效管理、以及机架级的精确温控和能效管理。 3. 高效的太阳能发电技术 根据全球能源市场研究机构Clean Edge Inc.发布的《清洁能源发展趋势》报告,太阳能发电、风能和生物燃料作为三大绿色能源行业,预计到2019年将在全球范围内创造3259亿美元的综合收入。 近年来,第三代III-V族元素化合物多结太阳能电池技术取得重大突破。 以这种电池为核心的多聚光太阳能CPV发电系统,其能量转换效率超过了火力发电和传统核能发电,已经开始大规模应用并吸引了大量投资用于产业化发展。
为了能以更加可持续的方式运营企业,企业对数字基础设施的要求也越来越高,不止是出于成本和效率的考量,从环境的角度也是如此。
Equinix全球IBX运营工程副总裁Arno van Gennip表示:“从设计到施工再到设施管理,数字孪生正成为提高数据中心效率和减少客户碳排放的关键。”
数字孪生有助于将来自不同重点领域的数据集中到共享环境中,这使得IT、工程、财务、采购、施工团队能够在流程中,更早地 探索 和模拟性能、财务和环境等各种因素之间的权衡。设备和空间利用方面的各种效率提升,带来的直接影响就是降低能耗和减少碳排放。数字孪生还有助于提高建设和运营效率,减少浪费、降低人员配备要求和相关环境影响。
很多企业和数据中心运营商(例如Nvidia)可能会从各种结合了工程、CAD和数据中心信息管理(DCIM)功能的仿真建模工具中打造出数字孪生工作流。越来越多的DCIM厂商(例如施耐德电气)将数字孪生功能直接引入他们的工具中。达索系统和Future Facilities等厂商为数据中心提供了集成度更高的数字孪生。Nvidia等厂商也开始推出Nvidia Air这样用于优化数据中心物理和逻辑布局的新工具。
投入运营中
Equinix与Future Facilities展开合作,面向企业数据中心构建数字孪生。数字孪生可以帮助工程师确保冷却系统和连接生态系统提供所需的容量和最佳效率。工程师可以对比数据中心的预期行为和实际行为,以及能源使用的情况。
“这让我们能够深入了解有关维护和优化能源效率的各种可能性,”van Gennip说。
Equinix工程师和合作伙伴一起构建了物理数据中心的3D模型。这种数据中心孪生模型是基于各种因素建模的,例如数据中心内计算设备的容量和密度,以及冷却系统的路径。集中式数字孪生平台可以帮助工程师使用实时数据(例如功率和温度)预测预计的变更对配电、空间利用和冷却路径可能带来的影响,这些实时数据整合到现有模型中,用于进行准确的分析和预测,从而使数据中心孪生可以通过预测能源需求提高效率。
达索和很多领先的超大规模数据中心企业展开合作,设计和建造下一代数据中心。
“他们面临的最大挑战就是如何缩短项目准备时间,以跟上不断增长的需求,以及如何通过减少建设和运营期间的能源、水消耗和浪费,让数据中心更具可持续性,”达索公司架构、工程和建筑(AEC)行业销售战略总监Marty Rozmanith这样表示。
让管理更轻松
数据中心房地产投资信托公司Digital Realty的全球建筑管理优化总监Kasper Dessing认为,以前数据中心管理被分成多个孤岛,每个孤岛都专注于管理设施的某一个方面。
因此,不同领域的管理者可能无法看到更大的格局。无论是现在还是将来,在考虑设施维护的时候,这一点都尤为重要。数据中心会产生大量的数据,而人类无法很好地捕获、汇集和管理这些数据。随着数字服务变得越来越复杂,这种情况只会变得越来越糟糕。
Dessing说:“通过数字孪生,我们能够以虚拟的方式呈现设施内的各种元素和各种动态,以及在各种操作场景下实时模拟实际行为。”
Digital Realty发现,由于数据量庞大,并且不同组件之间存在相互依赖性,因此通用数据中心的运营情况还不够好。正因为如此,Digital Realty将他们的设施数字孪生和专有的人工智能和机器学习平台进行集成,分析数千个数据流,从而能够跟踪设施内的所有组件并进行实时调整,还可以对未来行为进行预测,从而展开预测性维护,节省时间和降低成本。
这种对设施和不同组件之间关系的可见性,有助于改进新的设施设计,使其更高效。不仅如此,Digital Realty还利用数字孪生和他们的人工智能平台来优化能源消耗。
Dessing说:“可持续性是我们的首要任务,优化每个设施的能耗有助于我们在降低成本的同时,减少对环境的影响。”
并非所有人都具备在决策的同时进行模拟的这一技术专长,因此,Digital Realty将一种推荐引擎集成到了他们的数字孪生平台中。
“这样就可以让更多的人使用该技术,而不必一直依赖专家。”
把碎片组合在一起
设计、建造和运营数据中心的过程中会产生大量的数据,这些数据被保存为不同的格式,存储在不同的系统中。Rozmanith说,通过适当的访问控制和变更管理来管理和组织数据,这非常有挑战性。数字孪生可以带来多个学科、不同发展水平(LOD)和多个维度的数据,这让不同利益相关者可以实时地围绕单一事实来源展开协作。那些更为复杂的数字孪生技术则结合了各种技术,使用一种集成数字孪生来模拟热、结构、电气、控制和监控、制造和组装等过程。
埃森哲云首席技术专家Teresa Tung表示:“随着我们整合更多数据和模拟来连接工程设计、施工调度和运营流程,不同的数字孪生之间的互操作性已经变成了一大挑战。”
Tung的团队正在与数据中心厂商展开合作,将数据和领域专业知识应用于分析过程中,以确定驱动假设预测所需的模拟数量和配置,他们使用领域知识图(和用于互联网搜索中的技术相同)来捕获这些需求并映射不同元素之间的关系。
施耐德战略计划总监和解决方案架构师Carsten Baumann表示,提供商越来越多地向DCIM工具中添加数字孪生功能,以便在实际实施部署之前对基础设施升级可能带来的影响进行模拟。他认为,开放标准可以简化数据中心设备和管理工具之间的集成,从而可以更轻松地将数字孪生作为日常数据中心工作流程的一部分。
下面就让我们来详细看一看,数字孪生提高设计、施工、运营和规划可持续性的19种方式:
设计
放置新服务器
“也许在数据中心行业,使用数字孪生技术带来的最大影响就是气流管理和IT设备放置问题了,”Baumann说。
部署计算、存储和网络资源的需求快速增长,随之而来的是基础设施上的巨大挑战。特定机架或者特定位置还有物理空间,并不意味着有足够的电源、接入和散热能力。
看似简单的安装部署,可能需要对电源进行重大升级或者更好的替代方案时,数字孪生就可以帮得上忙了。
增加密度
增加数据中心的设备密度,可以减少新设施对气候带来的影响。
Information Services Group(ISG)企业敏捷性总监Loren Absher表示,数字孪生有助于优化数据中心设计,改善电源、布线、冷却要求、气流甚至活动地板完整性等所有相关元素,以防止灾难性故障的发生,此外还可以为增加密度所需的物理工作流程变更提供帮助。
提高热性能
冷却是数据中心的第二大能源消耗因素,仅次于设备本身。现代数据中心的冷却系统包括冷却器、管道和HVAC设备。
数字孪生可以使用热模拟来了解冷却系统的行为并提高其性能。
Rozmanith说,有些经常将代表冷水机组数量和管道尺寸变化的设备链的1D模拟,与气流的3D计算流体动力学(CFD)分析结合起来,找到冷空气和设备冷却之间的最佳平衡,以优化能源消耗。
评估季节性影响
Techstrong Research董事总经理、联合创始人Dan Kirsch表示,数字孪生还可以帮助数据中心设计师更好地规划季节性气候变化,让设计师可以根据外部季节性气候变化的影响提前规划,以降低总体运营成本和能耗。
“数字孪生让我们可以根据客户的特定需求和现场条件进行真正的定制和优化设计,而无需进行实地实验,”Kirsch说。
创建模块化组件
达索与大型数据中心运营商展开合作,打造了可以在不同数据中心设计中重复使用的模块化组件。
Rozmanith表示,数字孪生可以帮助企业定义和配置这些模块的属性,从而通过按订单配置的方法,缩短设计、采购和安装时间,从而有助于减少新建数据中心的环境影响。
测试和验证设备
NTT全球数据中心美洲产品高级副总裁Bruno Berti表示,他们正在使用数字孪生来测试和验证设备,然后再将其部署到数据中心内。
这些新的工作流程让他们可以构建和测试电气和发电机模块,这样工程师就可以在产品投入生产之前发生任何潜在的过程故障,减少了废弃物对环境的影响并改进了风险评估,加速了新产品的开发,提高了数据中心的可靠性和弹性。此外,数字孪生还有助于安排预测性维护,降低维护成本。
优化电池性能
数据中心设备生产企业Vertiv的首席创新官Greg Ratcliff表示,数字孪生可以用于建模和设计系统,以改善电池 健康 状况和预期寿命,从而减少制造新电池带来的环境影响。在这种情况下,数字孪生可以帮助团队使用电池 健康 测量和设施详细信息,来模拟不同的设计选择,预测每个电池的 健康 状况和使用寿命。
Ratcliff表示:“如果电池组中的单个电池出现故障,那么整个电池组都会出现故障,所以监控每个电池的运行状况是至关重要的。”
评估环保型替代品
数据中心运营商可以利用数字孪生技术来评估新方法的性能、环境效益和潜在缺陷。
例如,Kao Data利用数字孪生工具来虚拟地测试和部署无制冷剂间接蒸发冷却(IEC)系统,该系统使用水蒸发代替机械系统在炎热天气冷却空气。这种方法帮助Kao Data提高了电力利用效率,减少了对环境的影响。
建筑
精简施工
数字孪生可以模拟复杂的任务、装配、设备使用和人身安全,还可以改善供应商、集成商和承包商在设计和施工生态系统中的协作,以消除流程中的摩擦。
Rozmanith说,更好地模拟和协作,可以缩短施工时间、减少问题发生、避免返工、以及减少信息请求和安全事故的数量,这帮助达索的客户将面市时间平均缩短了10-15%,减少了与施工时间较长可能带来的环境影响。
减少建筑废品
数据中心设计师正在使用数字孪生来更好地规划施工,以便工作人员可以更高效地工作,减少浪费,缩短不同施工阶段之间的时间。
Kirsch说:“通过创建数据中心的虚拟模型以及完整的材料清单,设计人员可以优化施工人员组装数据中心的每一个细节。”
这种规划方法可以减少一个团队在其他团队完成任务等候的时间。而通常来说,减少数据中心建设过程中的浪费并非易事,Kirsch说,这个过程中很多组件是无法重复使用或者回收的,最终只能进入废品填埋场。
运营
提供维护建议
数字孪生有助于确定问题的根本原因,并为快速修复提供维护建议,以减少能耗。
例如,Equinix位于阿姆斯特丹的工厂采用了一种数字孪生模型,根据模型显示,他们必须清洁冷却塔和调整风扇,以前这两项维护的能耗都要高于模型预期的水平。van Gennip表示,数字孪生让已经比较高效的数据中心IBX能源效率进一步提高了10%。
延长资产寿命
达索的虚拟数字孪生可以将人工智能和机器学习算法的操作数据情境化,用于改进预测性维护。Rozmanith说,这延长了设备的使用寿命,从而减少了电子废品。而且,虚拟孪生还可以通过提高冷却和电力系统的效率来优化能源和水的使用。
提高维护和维修效率
数字孪生可以对维护、维修和翻新所需的所有信息访问进行简化,包括访问文档、用户手册、维护手册、材料供应商信息和备件清单等信息。Vertiv定制空气处理和模块化解决方案副总裁Lorenz Hofmann表示,这可以节省时间和减少工作量,从而减少二氧化碳的排放量。
数据中心流程自动化
流程挖掘功能的改进,可以帮助数据中心领导者了解他们的团队如何与应用进行交互,并对数据中心环境的变化做出反应。
ABBYY流程智能高级总监Ryan Raiker表示,使用数字孪生理解和记录程序,有助于数据中心团队发现候选的自动化方法,还可以实施不同的协议,以便在故障实际发生时采取行动,确保数据中心正常运行并减少故障和浪费的发生。
改善托管服务提供商和企业之间的协作
托管数据中心可以让多个企业共享同一个数据中心,但是当企业客户决定安装新设备的事后,可能会对周边其他企业的设备产生电力、热量和重量上的影响。
法国Thésée DataCenter与Future Forward展开合作,在云中部署每个设施的数字孪生,这种数字孪生让客户能够通过Web服务端模拟他们自己或者附近设备预期变更可能带来的影响,从而有助于Thésée的工程师与客户展开协作,提高他们的数据中心空间使用率,减少建设新数据中心的需求。
规划
确保满足合规性要求
NTT正在研究通过数据孪生帮助企业收集与业务相关的数据,并对这些数据实施标准化。数据孪生将企业数据源及其相互关系复制为标准格式,为分析和报告提供一个集中的位置。
NTT Data Services SMART解决方案副总裁Bennett Indart表示,这将有助于提供数据中心在实现可持续发展目标方面取得的进展,以及发现新的机会进行改善。
改善财务决策
NTT公司的Berti表示,NTT已经开始把财务数据整合到他们的数字孪生中,这有助于NTT在计划过程中使用实时数据和高级分析功能来审查材料和人工成本。
此外,这还有助于确定调整制造价值链从财务方面看是否合理,以及预期结果是否会降低数据中心的运营成本。
评估数据中心迁移带来的影响
埃森哲与卡内基梅隆大学合作开发了一个名为myNav Green Cloud Advisor的数字孪生模型,该模型让企业可以衡量数据中心和云提供商之间迁移的可持续性影响。
埃森哲的Tung表示,该项目最开始是一个数字孪生,以当前数据中心的能源消耗、计算要求和可持续发展目标为基准,让企业可以规划和对比各种云解决方案,包括碳排放目标、位置、能源和向清洁能源过渡的准备情况。
了解实质性的影响
Kirsch说,在建设完成之前,通常很难知道数据中心内的实际材料清单。在数据中心建设期间,团队会遇到各种可能需要偏离最初设计的情况。设计团队可以使用数字孪生规划所有现场条件,并指定所需的材料。
Kirsch说:“通过制定准确的材料清单,数据中心创建者和最终用户可以在施工开始之前就充分地了解需要使用的材料,以及对整体可持续性目标的影响。”
国家发展改革委等部门近日联合印发文件,部署《全国一体化大数据中心协同创新体系算力枢纽实施方案》,即“东数西算”方案,并着重强调了“加强绿色数据中心建设,强化节能降耗”。
“能该如何耗?”这个是新基建行业必须思考的“必答题”。
用电大户
数据中心和5G基站一样,在支撑数字经济发展过程中发挥着重要作用。赛迪顾问数据显示,2019年中国现有IDC数量大约有7.4万个,约占全球IDC总量的23%,其中,超大型、大型IDC数量占比达到12.7%。规划在建IDC数量320个,超大型、大型IDC数量占比达到36.1%。
调查数据显示,目前亚太市场仍是全球数据中心市场的亮点,2019年数据中心IT投资规模达到751.7亿美元,与2018年同期相比增长达到12.3%。未来市场的主要动力仍来自中国数据中心市场稳步发展。移动互联网、云计算、大数据、人工智能等应用的深化将会是市场动力的主要来源。
算力与经济增长密切相关。《2020全球计算力指数评估报告》显示,计算力指数平均每提高1个点,数字经济和GDP将分别增长3.3‰和1.8‰。对此,浪潮 科技 指出,对于经济增长的追求很容易导致地区数据中心出现“为建而建”的粗放式布局和重复建设问题。这就可能会出现清洁能源充足的地区没有数据中心建设规划,而电力紧张的地方布局了很多数据中心的问题。
此外,某些地区数据中心的机房、电力、网络等配套基础设施都是按照自己的需求进行规划和建设,并未遵守相应的规范。这便造成了看似发展得“遍地开花”,但实际上陷入了零散和“一哄而上”的状态。
另有分析认为,对现存数据中心进行节能改造亦存在不小难度。“改造成本高”、“技术难跟进”等都是摆在数据中心服务商面前的难题。
政策趋严
国家发改委等部门曾多次发文,倡导新基建产业向绿色可持续方向发展。《全国一体化大数据中心协同创新体系算力枢纽实施方案》明确要求在大数据中心建设中,各方需推动数据中心绿色可持续发展,加快节能低碳技术的研发应用,提升能源利用效率,降低数据中心能耗。
《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》指出,数据中心、5G是支撑未来经济 社会 发展的战略资源和公共基础设施,也是关系新型基础设施节能降耗的最关键的环节。
而在具体指标上相关政策更是划定了日趋严格的标准。2019年2月工信部出台的《关于加强绿色数据中心建设的指导意见》中明确规定,到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的电能使用效率值达到(PUE)1.4以下。
PUE(Power Usage Effectiveness,电源使用效率)是国际上比较通行的数据中心电力使用效率的衡量指标。PUE 值是指数据中心消耗的所有能源与IT负载消耗的能源之比。PUE值越接近于1,表示一个数据中心的绿色化程度越高。
2021年7月,北京市发改委出台的《关于进一步加强数据中心项目节能审查的若干规定》更被称为史上最严格的PUE管控政策。规定特别强调了对于超过标准限定值(PUE值1.4)的数据中心将由北京市电力公司按月征收差别电价电费。
而根据2020发布的《中国液冷数据中心发展白皮书》显示,国内数据中心的PUE值普遍在1.4以上。
行业竞“低”
工信部发布的《国家通信业节能技术产品推荐目录(2021)》和《国家通信业节能技术产品应用指南与案例(2021)》就“降碳”问题为数据中心等相关新基建行业提供了节能技术和产品解决方案。内容特别指出,“降低能耗”、“提升能效”,是数据中心节能降碳的关键手段。
在相关指导出台之前,新基建的部分“龙头行业”在相关技术上对于PUE的竞低之争就已打响。
华为官方提供的信息显示,华为数据中心能源集团推出的FusionCol间接蒸发冷却系统技术能够将重点地区的PUE降至1.25以下。浪潮 科技 方面表示,通过采用间接蒸发冷却技术,目前能够实现全年自然冷和超长时间的100%自然冷,整体PUE可保持在1.2以下的水平。中科曙光方面则表示,依靠自主研发的相变式全浸没液冷技术已经将PUE突破性降至1.04。
企业方面对于低PUE的追求一方面受政策和行业标准的影响,而另一方面,从产品竞争力角度来看,低PUE的产品往往更能受到合作方的青睐。
熟悉IDC审批流程的业内人士告诉第一 财经 ,IDC的PUE指标和IDC许可证的审批是挂钩的。政府会依据IDC申请方的PUE及其他能评指标进行审核,并批复与之相对应规模的IDC许可证。换言之,若申请许可证的IDC的相关PUE达不到指标,极有可能申请不到与之需求相匹配的IDC。
绿色是高质量发展底色。为加快绿色数据中心建设,湖南移动推动清洁能源安全高效利用,以完善能源管控、引导能源结构升级为目标,聚焦低碳建设、低碳运维两个关键环节,一方面加强数据中心的节能降耗能力打造,多举措降低供电损耗、提升设备效能,另一方面加快5G基站用能转型,完成能源改造后的5G基站可节省30%用电量,为实现碳达峰、碳中和目标贡献力量。
数据中心智慧化系统应用
打造绿色节能大数据中心智慧管理心中有”数“
移动互联网时代,数据是最重要的资源之一,而数据中心作为承载数据的新型基础设施,重要程度不言而喻。但随着互联网产业的蓬勃发展,大型数据中心的耗能和碳排放也日益加重。因此,打造绿色数据中心,降低数据中心碳排放势在必行。
湖南移动在株洲数据中心规划之初,就优先考虑节能减排,从建筑格局、外形结构、体形系数等方面着手,大力推广标准化绿色节能设计。不仅在建筑设计、材料选择等方面开展环保评估,在电源和空调等配套设备选型上坚持应用绿色先进技术,其中电源设备采用巴拿马电源技术,通过10KV直接输入,DC240V输出供ICT设备使用,化繁为简,将原本若干套设备精简集成为一套设备,提高3%电源转换效率,节省电费的同时还能节约投资、节约机房面积,实现快速部署。
数据中心设备功能强大,但会产生大量热量,而服务器、处理器必须在一定温度以下才能保持最佳性能,空调制冷系统就成为耗电“大户”。湖南移动在空调设备方面,采用水冷空调、水泵变频、热管冷却等技术,利用高压离心式冷水机组+板式换热器+开式冷却塔系统,在冬季充分利用自然冷源,减少冷水机组机械制冷的运行时间,再叠加新型空调末端技术,直接就近对设备进行冷却,进一步降低制冷传输造成的能耗。以上多种技术相结合,使空调制冷系统的能效比提升近一倍。
数据中心空调新技术应用
为推进智慧化数据中心运维管理,湖南移动搭建了数据中心能耗管理平台、IDC集中运维平台,通过分析楼栋、机房、设备的能耗数据,定位IT设备、供电、空调等高能耗点位,并根据IDC业务运行数据的实时监控,输出自适应的调优维护策略,通过空调运行参数优化、主设备运行调优,使各设备处于整体能耗最优模式下运行,也避免了因局部热岛问题导致整体能耗升高问题,实现了智慧制冷,确保数据中心低能耗、高性能运行。
MIMO电源+太阳能 打造5G基站低碳示范站
图为应用太阳能清洁能源的5G低碳基站
5G基站的耗电量有多大?来自湖南移动数据显示,基站耗电量占整个移动通信网络能耗的60%,5G基站功耗是4G基站的3倍。因此,提高5G基站自身的节能降耗水平,是5G发展和通信业助力全 社会 实现双碳目标的重要基础。
5G低碳基站示范站一体化能源柜
湖南移动以5G组网架构为演进方向,开展全网CRAN化改造,采用“一站一柜”的低碳建网方案,将主设备、空调、电源、电池集成在一体化室外能源机柜内,逐步替代传统土建机房,再结合“MIMO电源+太阳能”的叠光运行方案,利用太阳能资源为基站供电和电池充电,节省基站市电直接使用量,再通过引入MIMO电源技术,实现太阳能、市电、发电机组等多能源的接入,保障网络安全稳定运行。在空调设备新技术应用方面,通过“重力热管型双循环空调+封闭热通道”的机柜级制冷方式,直接就近对设备进行冷却,可大量节省制冷量,降低能耗。
为推进5G基站绿色运维、降本增效,湖南移动在一体化能源柜基础上搭建了基站能耗智慧管理平台,集成“AI+大数据+IoT+电力电子+储能技术+传感技术”于一体,可免电表实现每个设备的电量精确测量,用电足迹精确可视。智慧平台将能源与业务联动,实现设备远程上下电控制,以及空调精确制冷。
“未来,湖南移动将继续推广5G低碳基站应用。”湖南移动相关负责人表示,湖南移动还将同时开展零碳基站研究,加大5G+能源应用推广,以“节能、洁能、赋能”计划为纲要,助力全 社会 实现双碳目标。
图为一体化能源柜内电源监控模块
数据中心规划设计绿色节能措施如何打造绿色节能数据中心,解决供电和散热问题,让数据中心管理员不必为节能而困扰?要做到绿色环保、技术先进、经济合理、安全适用、确保质量,建议采用以下一些绿色节能措施:1、机房最好建在大楼的二、三层,距离大楼配电最近;2、机房尽量避免设在建筑物用水楼层的下方,造成机房水侵;3、机房选在建筑物的背阴面,以减少太阳光的辐射所产生的热量;4、排烟口设在机房的上方,排废气口设在机房的下方;5、主机房区域的主体结构应采用大开间大跨度的拄网;6、充分利用自然冷源,降低机房精密空调的使用率减少耗电;7、选用高效节能型IT设备;8、增加虚拟服务器的使用,便硬件在不增加能耗的情况下处理更多的工作量;9、在服务器不使用时将其自动转换为节能状态;10、只在设备需要时才开启制冷;11、各别地区可利用自然冷源,为机房设备降温,减少机房空调使用率;12、服务器机柜采用“面对面”或者“背对背”的摆放方式,并且封闭冷通道,降低空调冷源额外消耗;13、电力系统的合理分配;14、高可靠性新型技术的利用;总而言之,建设绿色节能高效的数据中心是未来数据中心建设的重点。 能源紧张是目前也是以后世界性的一个问题,建设绿色节能数据中心的一个主要目的也是为了降低设备能耗节省资源,这也符合整个社会发展的潮流,也是节约运营成本最直接的手段。 降低能耗是企业在每一个业务环节必须关注的问题,也是提高企业成本竞争力的有力保障。 在确保业务稳定运营的同时,降低IT长期运营成本是每一个现代企业的任务。
PUE不大于1.4在空调技术上是可行的。 制约PUE的,我认为,现阶段主要是冷却技术、空调技术、如何高效排热的问题。 贴一个清华大学江亿院士的演讲:各位来宾、各位专家、各位领导早上好!我好象是第一次参加绿色数据中心的技术大会,因为咱们不是搞计算机这行的,是搞空调,搞建筑节能的,但是好象也慢慢把我们推到这个行业了。 为什么?是因为空调的能耗或者说派热降温的能耗在数据中心里占了比较大的比例。 所以,刚才我听前面这位领导讲数据中心都快到了运行这个程度了,运行主要是能源消耗,能源消耗里就40%或者更多是空调的能耗。 所以,怎么能够降低空调的能耗,一方面给国家的节能减排作贡献,一方面也使我们数据行业产生更好的经济效益,就变成重要的问题了,所以我今天跟大家汇报一下我们在这方面的想法跟体会。 从空调的特点来看,现在随着计算机电子技术的发展,芯片技术都比原来高,主机的发热度越来越大,这样导致空调排热成为这里面大的部分。 后面有一些细的发展状况不说了,就直接看到空调里头。 现在统计大致的结果,对于中小型的数据中心大概PUE值都在2,或者以上,这是空调占了一半或者还多的一个能源消耗。 对大型的IDC机房管理做的比较好的,这时候空调效率相对比较高,但是也能占到40%左右的能耗。 所以,降低数据中心的能耗可能一个是提高服务器的使用效率,没活儿的让它歇着,一方面减少了空气的运行能耗,当然,电源也有可以提高的技术。 空调应该有很大的潜力,空调里面的能耗由什么构成?以前一想说制冷机,压缩机耗电多,实际上压缩机耗电在50%-60%左右,除了压缩机之外,风机也能占在40%或者更多的空调耗能。 现在的情况什么样?大概有这么几块:第一、因为全年制冷,所以绝大部分的数据中心制冷机都开了,这是一年来总的空调的考点状况,可以看出冬天、夏天区别很少,北京、上海、广州冷的地方,热的地方区别很少,应该说冬天天凉了,北京空调越来越大幅度下来,这个变化也不大,所以全年度在这儿用。 然后,有关发热密度非常大,负责把这些热量排走,所以循环风特别大。 并且风吹的还厉害,不行把风量减少,降低送风温度,但是当冷源温度低于屋子里温度的时候,蒸发器就凝水,恨不得天天都出湿,出了湿又怕屋子里太干,所以又有了一些加湿器,这边除湿,那边又得加湿,又得用电,冬天大冷的天还得制冷,这构成了现在数据中心,无论是大的,还是小的空调能源消耗高的主要问题。 有这样问题是坏事儿,反过来又是好事儿。 说明咱们在这儿的潜力特别大,有很大的潜力可以把空调能源消耗降下来。 那么,走哪条道?怎么做?一听说这个空调跟你们建筑节能是一码事,建筑节能都抓围护结构保温,咱们整这个,围护结构,效果非常小,或者无效果,为什么?因为一个IDC密一点的机房一平米大概产热量3-5千万,通过围护结构进入或者出去的热量不会超过折合在占地面积上不会超过50瓦,所以,围护结构的影响很小,就是1%,2%的影响。 当然,通过一些技术,避免外墙直接太阳辐射,比来我这儿热,再拿太阳照我,尽可能的密闭,别让风进来,这是很重要的。 可能有些专家说,风渗进来,有什么不好,如果房子做的不密闭,就是不可控制的室外渗风,是凉快了,但是湿度下降了,夏天热容器不好,而且由于室外的湿度变化大,我数据中心里面希望湿度维持基本稳定不变,给我添加湿、除湿的麻烦事儿。 因此,通过各方面应该把房子做密闭了,对目前来说不是保温的事儿,而且密闭的事儿,密闭最重要。 那么,怎么把热量排出去,马上前几年一些企业想办法说既然冬天不开制冷机,而且外边凉,最简单的通风换气吧,是通过凉风进来,把热量排走,这是有点节能,但是恐怕数据中心这么做不太合适,为什么?室外的灰尘赃,机器得干净,湿度室外是变化的,夏天北京的一立方米空气有2克的水汽,另外中国是烧煤的国家,70%的化石能源都来自于煤,燃煤就出硫,硫化物到室内,就会导致表面发生腐蚀现象,所以这是不行,您的冷却系统是为主机服务的,要是有损于主机,无论是灰尘还是硫化物,还有湿度都会影响主机的寿命,这是绝对不能有的。 因此,说就想法通过过滤消除灰尘,想法加湿、除湿改变湿度,想法脱硫,当把这些东西都架上,就发现投入的成本和能源消耗就不低了,而且维护管理的工作量立刻上去了,那么这么大的数据中心要求高可靠性运行,于是这事儿有点别扭了。 还有通过热交换把凉气取回来,这个思路是挺好,对于一些小规模的计算中心,像一个大楼里的数据中心有时候还可以,但是对于大规模的机房是无法实现的,是因为直接走风道这么大发热量得有多大的风量直接室外来回换气,风道的体积在那儿摆着不合适,然后维护工作量非常大,尤其还是赃。 所以,室外的低温必须想法用上,是通过室外的新风,怎么通过某种能量凉下来,最后把机器里面的热量带走。 所以,整个的数据中心的空调跟咱们楼里的空调概念不一样,它的核心事儿就是怎么把芯片那儿出来的热量通过某种介质传热,传完之后,几次交换,最后导到室外去就这么一个任务。 所以,这时候根本目标就是让芯片的温度不要超过标准温度,然后把这个温度排出来。 这样芯片表面温度和冷源温度的差跟热阻成正比,就是怎么把这个等效热阻降低了核心的事儿就变成了这么一个问题。 温差小就是如果我芯片温度不许超过40度,如果我的温差是20度,只要室外温度低于20度,我就不用开冷空气就可以把热量排走,所以就要减少等效热阻。 那么,这个等效热阻由什么构成?发现就像咱们的一个网络,三个电阻,三个等效热阻,哪三个过程?一个就是芯片跟空气之间的换热环节,这个差越大,温差就越大,比如我可以取平均温度,等效热阻就是这块面积除以热量,第一个环节就是容器跟芯片表面换热的环节。 第二个环节,比如说我有一个精密空调跟水,或者室外的冷水换热,这冷水跟容器之间的换热环节,我们叫输送与换热热阻。 第三个环节,循环介质与冷源之间换气,叫做冷源换热热阻。 比如说室内温度到20度,实际只欠10度的温差,这时候冷空机提供的活儿就是这10度的温差。 所以,把热阻减少了,无论是用自然冷源还是开冷风机都可以降低功耗。 因此,核心的问题就是把这三个环节的热阻降下来。 所以,就三个关键,第一、降低热量采集过程的热阻,同时不增加风机电耗。 第二、降低热量传输过程中的热阻,同时不增加传输电耗。 第三、找到温度更低的自然冷源,但是别破坏环境。 下面逐条看,采集过程中的热阻,实际的采集热阻,除了空气跟芯片换热之外,还有相当大的消耗是机房里面冷风跟热风的互相搀混,制冷机就是把冷风热的温度分开,分出冷热风,这个屋子里面又没地儿跑,又搀混起来了,所以避免冷风热机的搀混。 比如说要是给定芯片温度,当搀混小的时候,回风温度可以更紧的接近芯片,如果我恒定芯片温度回风少的时候,这样就可以更大程度的利用这个资源。 有一些实测的数据,是在大的IC机房里实测的,大家可以看出来,比如冷通道进来,从机房送出来应该这儿是16点几度,到这儿怎么就能30多度呢?它这儿上面还有一块挡,这30多度是哪儿来的?就是因为部分的过了服务器之后,服务器里面有空档,空档的热风又渗回来了,热风跟这些东西搀混到这些地儿,能到35度。 为了保证上面服务器的这些效果,于是就得降低送风温度,为了保证上面差不多,结果把这个温差就拉大了,导致整个的冷交热的增加。 所以,这儿看着排风有40度的,这些排风35、36度,总的到空调下一看,派风温度才28度,怎么降下来了?就是凉风过去跟热风搀和起来了,这样芯片大概在45度以上。 如果避免了这些混合之后,就可以把回风温度很容易提高到35度,输送温度也可以提高到20度,保持芯片温度最高的温度不变,于是这温差小多了,采集的等效热阻下来了。 当然,具体计算可以拿出温度差仔细算出来知道什么毛病,总的指导思想是这样的。 所以,在机柜顶部架一些挡板,这样能够有点改善。 但是由于金桂内刀片式服务器之间不可避免存在气流短路现象,因此,仍存在短路现象,使冷气流通道内有旁通过来的热气流,热气流通道内也会有旁通过来的冷气流。 还有就是直接把换热器安装在机柜内,在机柜内或者机柜旁制备冷空气,可以有效减少掺混这样现象,降低热量采集过程温差,可以减少风量、丰足,大幅降低风机电耗。 所以,这是很重要一条,但是不能让柜子出水。 这样有一种做法,就是采用背板冷却,将空调系统热换器安装在装载IT设备的机柜上,根据机房内各个不同的机柜实现按需供冷,避免局部热。 分布式制冷系统使空调系统的吸热端更接近热源。 这是第一个减少采热采集过程中的热阻。 第二减少输配过程中的热阻,实际这个环节比如一条空调器,是空气跟水的换热,那么空气温度是这样的,水温度是这样的,就会看到有时候往往都不是平衡的,是带三角形性质的,只要带三角形性质,就浪费一部分温差。 所以,想法调整两边的流量,使得两边的温差接近,可以有效的降低数配系统的等效热阻,或者减少等效温差。 有时候说是由于我用背板,或者机柜里的换热器那里面不是走水,无论是走二氧化碳,还是走氟利昂,这是机柜内送派风温度,这是热管温度,这是室外侧进出口温度,是这么一个过程,(如图所示),还有一种换热器,每排的热管单独连接,这时候室内室外的温度就变小多了,尽管换热面积一样,它就强多了。 当然,这样会导致热管布置起来要复杂,但是在二者之间,总有一个好的权衡去减少输送过程的热阻或者说降低它的温差。 第三条就是到底我们用什么样的室外的自然冷源和怎么把这自然冷源跟我的机械制冷有机的统一结合起来?因为有时候天热还得开冷机,这二者之间能不能实现一个比较自然的转换?我们现在看看到底把这个热量往哪儿排,实际在空气里面并不是一个空气的问题,咱们有三种温度,一种就是空气的干球温度,像今天大概室外27、28度,是天气预报说的温度。 直接换热就是干球温度。 但是,如果我对外面拿冷却塔喷水,就是湿球温度,大概23、24度。 比如到五一湿球温度比干球温度低的多,所以通过冷却塔就可以降低湿球温度,还可不可以再降低,还有一种就是间接蒸发冷却,西部地区很多地方用它做空调,它可以把试问降到室外的露点温度,像现在这个时候,北京的露点温度低于20度了。 这是拿北京气侯为例,蓝的是全球的干球温度,红的是湿球温度,绿的是全年的露点温度的变化。 所以,我要是安全露点温度考虑问题,全年北京市5876小时低于20度的时间占全年的67%,如果热阻做好了,就只有10%几的时间,做不好,15度的时候,露点温度也能占到77%的时间。 所以这个比例还是挺大的。 那么,怎么跟制冷机统一起来,实现无缝连接,自然过渡呢?这是一个方案,包括几部分,先说柜子,刚才我讲背板式的换热,现在是上下的换热,屋子里的空气26度,从这儿进入机柜,两组换热器,一组一个管给19度,一个管给16度,经过两种换热,从26度到20度,经过发热的服务器,达到32度,然后经过两组换热器降温,又变成26度,再回来,维持屋子里的温度是26度,不是靠屋子里别地儿装的孔,而是靠这个机柜,屋子里的温度是由机柜决定的,由于屋子里的温度是16度,露点温度只有12、13度,我把物资弄密闭了,人也不怎么进去,里面没有湿的事儿。 然后,这四组换散热器,拿热管引出来,这四组是16、19、22、25度,然后这个水就是跟这热管换热,把热量都带到水里去,所以从15恩度,涨到24度。 然后,24度,如果室外是两管,冷空气不用开,直接经过间接冷却塔就能够把水温降大15度,如果温度再低,只要朝这风机跟这儿的转换装置,能够维持我进入到换热器全年只有15度。 当室外温度高到30度,露点温度到18度,这时候冷却塔还能起一点作用,能起1/3的冷量还从这儿出,不足了再拿冷风机降一部分。 所以,这个冷风机是连续的就能够使得冷风气从10%的复合逐渐加到5%的复合。 冷却塔只要露点温度在20度以下,总能起点作用。 这样一个系统,这儿计算了一下,拿北京的气象条件可以看出来,如果是这么一个机房,跟一般传统的机房来比,咱们就直接取它一年用电量是百分之百,那么即使没有自然冷源,就是拿制冷机做,但是因为我减少了掺混,减少了数配能耗,能够节能40%几。 如果用最好的间接冷却方式,用电量只有23%,能够节省70%的电量,所以有巨大的节能潜力。 按照这个思路,我们有一些机房的改造实例,这是清华大学图书馆的一个全校支持整个学老师、同学做研究的数据中心。 它原来就是在这个屋子里头摆了一堆空调器,机器多了,热量还大,所以追加了好几台空调器。 用了跟刚才这个图差不多的方式,结果总机柜里面的风机降到7千瓦,这时候能效比从2.7涨到8.2,就只用原来1/3的能耗。 最热的时候,冷机都得开了,即使如此,能耗还能差一半。 所以,全年下来总的能耗消耗能够降低60%左右,这就是一个实际案例,这个还有一些遗憾的地方,就是做得不彻底,做得彻底了,还能够进一步降低消耗量。 总结一下,就是数据中心排热的空调实际上有巨大的节能潜力和节能空间。 它的核心是机房的气流组织怎么采集热量合理的空调器,其中几个基本原则,一个就是尽可能避免不同的温度的气流掺混,我们现在对机柜进行空调制冷的目的,不是对机房进行空调制冷,所以尽可能把冷源越贴近发热体越好,充分的利用自然冷源,有各种不同的法子获得不同温度的,然后想法介绍能耗,这样给出去的这些思路,今天讲的某一两个做法,实际在这个思路下发挥创新的精神还可以创造出好些各种各样的方案,真正把数据中心排热的空调能耗降下来。 我们觉得完全按照目前大多数方式来比较,有可能把机房的空调节能达到70%以上,相当以机房用电量降低30%以上。 刚才我听领导讲,国外发达国家比,机房的PUE到1.2,1.3那跟它机房的位置有关系。 在不同的气侯条件下,实际上抓好这几条,以自然冷源为主,适当的加一点机械制冷的补充,解决一年里面20%,25%的节能,完全可以把我们国家不同地方数据中心的空调能耗都有效的降下来,应该做的比发达国家,比美国还好,谢谢大家。
本文地址:http://www.hyyidc.com/article/18866.html