好有缘导航网

数据中心的可持续发展未来:能效比率如何为绿色运营铺平道路 (数据中心的可用性要达到六个九)


文章编号:18871 / 分类:互联网资讯 / 更新时间:2024-05-13 02:50:10 / 浏览:

随着对数据处理和存储的需求不断增长,数据中心已成为现代世界的关键基础设施。这些设施也消耗了大量的能源,对环境造成了重大影响。为了应对这一挑战,数据中心行业正在转向能效比率 (PUE) 作为衡量和提高可持续性发展的关键指标。

什么是能效比率?

idc.com/zdmsl_image/article/20241212143142_10949.jpg" alt="数据中心的可持续发展未来能效比率如何为绿色">

能效比率 (PUE) 是一个指标,用于衡量数据中心消耗的总能源中用于供电 IT 设备的比例。PUE 值越低,这意味着数据中心运行的效率越高。理想的 PUE 值为 1.0,表示数据中心使用的所有能源都用于供电 IT 设备。

PUE 如何帮助提高可持续性?

通过降低 PUE,数据中心可以大幅减少其能源消耗和碳排放。这是因为用于 IT 设备的能源比例越大,用于冷却、照明和其他辅助系统的能源比例就越小。通过优化冷却系统、改进电源效率并使用可再生能源等措施,数据中心可以降低其 PUE 并显著提高其可持续性。

冷却优化

冷却是数据中心能源消耗的主要贡献者。通过实施先进的冷却技术,例如液浸冷却和自由冷却,数据中心可以显著减少冷却能耗。液浸冷却涉及将 IT 设备浸入不导电的液体中,而自由冷却利用外部冷空气来冷却数据中心。

电源效率

数据中心的电源效率至关重要。使用高效率电源、不间断电源 (UPS) 和变频驱动器 (VFD) 可以降低能源消耗。这些技术可以减少电力损失,提高整体电源效率。

可再生能源

使用可再生能源,例如太阳能和风能,是数据中心脱碳的重要途径。通过在数据中心现场或通过可再生能源证书 (REC) 安装可再生能源系统,数据中心可以减少对化石燃料的依赖并降低其碳足迹。

实现六个九的高可用性与可持续性

数据中心的高可用性通常以 "六个九" 表示,即 99.9999% 的正常运行时间。这意味着数据中心每年只允许停机不到 30 秒。实现六个九的高可用性对于确保关键业务应用程序的可靠性至关重要。通过实施冗余系统、备份和灾难恢复计划,数据中心可以实现高可用性,同时仍然保持其可持续性发展目标。

结论

能效比率 (PUE) 是数据中心可持续性发展未来的一项关键指标。通过降低 PUE,数据中心可以减少能源消耗,降低碳排放,并为六个九的高可用性铺平道路。通过实施冷却优化、电源效率和可再生能源等措施,数据中心行业可以转变其运营,为一个更加绿色和可持续的世界做出贡献。


机房节能的绿色数据中心概述

绿色数据中心(Green target=_blank>

数据中心电能使用EEUE分析

世界能源委员会1995年对能源效率的定义为:减少提供同等能源服务的能源投入。 对于能耗居高不下的数据中心,研究提高能源效率具有深远的社会效益和经济效益。 除了能源效率之外,数据中心还有多项其他性能指标,按照国际标准组织ISO的定义统称为关键性能指标,或称为关键绩效指标,研究这些指标对于数据中心同样具有十分重要的意义。 在已经颁布的数据中心性能指标中最常见的是电能使用效率PUE。 在我国,PUE不但是数据中心研究、设计、设备制造、建设和运维人员最为熟悉的数据中心能源效率指标,也是政府评价数据中心工程性能的主要指标。 除了PUE之外,2007年以后还出台了多项性能指标,虽然知名度远不及PUE,但是在评定数据中心的性能方面也有一定的参考价值,值得关注和研究。 PUE在国际上一直是众说纷纭、莫衷一是的一项指标,2015年ASHRAE公开宣布,ASHRAE标准今后不再采用PUE这一指标,并于2016年下半年颁布了ASHRAE 90.4标准,提出了新的能源效率;绿色网格组织(TGG)也相继推出了新的能源性能指标。 对PUE和数据中心性能指标的讨论一直是国际数据中心界的热门议题。 鉴于性能指标对于数据中心的重要性、国内与国际在这方面存在的差距,以及在采用PUE指标过程中存在的问题,有必要对数据中心的各项性能指标,尤其是对PUE进行深入地研究和讨论。 1.性能指标 ISO给出的关键性能指标的定义为:表示资源使用效率值或是给定系统的效率。 数据中心的性能指标从2007年开始受到了世界各国的高度重视,相继推出了数十个性能指标。 2015年之后,数据中心性能指标出现了较大变化,一系列新的性能指标相继被推出,再度引发了国际数据中心界对数据中心的性能指标,尤其是对能源效率的关注,并展开了广泛的讨论。 2.PUE 2.1PUE和衍生效率的定义和计算方法 2.1.1电能使用效率PUE TGG和ASHRAE给出的PUE的定义相同:数据中心总能耗Et与IT设备能耗之比。 GB/T.3—2016给出的EEUE的定义为:数据中心总电能消耗与信息设备电能消耗之间的比值。 其定义与PUE相同,不同的是把国际上通用的PUE(powerusage effectiveness)改成了EEUE(electricenergy usage effectiveness)。 国内IT界和暖通空调界不少专业人士对于这一变更提出了不同的看法,根据Malone等人最初对PUE的定义,Et应为市电公用电表所测量的设备总功率,这里的Et就是通常所说的数据中心总的设备耗电量,与GB/T.3—2016所规定的Et应为采用电能计量仪表测量的数据中心总电能消耗的说法相同。 笔者曾向ASHRAE有关权威人士咨询过,他们认为如果要将“power”用“electricenergy”来替代,则采用“electricenergy consumption”(耗电量)更准确。 显然这一变更不利于国际交流。 虽然这只是一个英文缩写词的变更,但因为涉及到专业术语,值得商榷。 ISO给出的PUE的定义略有不同:计算、测量和评估在同一时期数据中心总能耗与IT设备能耗之比。 2.1.2部分电能使用效率pPUE TGG和ASHRAE给出的pPUE的定义相同:某区间内数据中心总能耗与该区间内IT设备能耗之比。 区间(zone)或范围( boundary)可以是实体,如集装箱、房间、模块或建筑物,也可以是逻辑上的边界,如设备,或对数据中心有意义的边界。 ISO给出的pPUE的定义有所不同:某子系统内数据中心总能耗与IT设备总能耗之比。 这里的“子系统”是指数据中心中某一部分耗能的基础设施组件,而且其能源效率是需要统计的,目前数据中心中典型的子系统是配电系统、网络设备和供冷系统。 2.1.3设计电能使用效率dPUE ASHRAE之所以在其标准中去除了PUE指标,其中一个主要原因是ASHRAE认为PUE不适合在数据中心设计阶段使用。 为此ISO给出了设计电能使用效率dPUE,其定义为:由数据中心设计目标确定的预期PUE。 数据中心的能源效率可以根据以下条件在设计阶段加以预测:1)用户增长情况和期望值;2)能耗增加或减少的时间表。 dPUE表示由设计人员定义的以最佳运行模式为基础的能耗目标,应考虑到由于数据中心所处地理位置不同而导致的气象参数(室外干球温度和湿度)的变化。 2.1.4期间电能使用效率iPUE ISO给出的期间电能使用效率iPUE的定义为:在指定时间测得的PUE,非全年值。 2.1.5电能使用效率实测值EEUE-R GB/T.3—2016给出的EEUE-R的定义为:根据数据中心各组成部分电能消耗测量值直接得出的数据中心电能使用效率。 使用EEUE-R时应采用EEUE-Ra方式标明,其中a用以表明EEUE-R的覆盖时间周期,可以是年、月、周。 2.1.6电能使用效率修正值EEUE-X GB/T.3—2016给出的EEUE-X的定义为:考虑采用的制冷技术、负荷使用率、数据中心等级、所处地域气候环境不同产生的差异,而用于调整电能使用率实测值以补偿其系统差异的数值。 2.1.7采用不同能源的PUE计算方法 数据中心通常采用的能源为电力,当采用其他能源时,计算PUE时需要采用能源转换系数加以修正。 不同能源的转换系数修正是评估数据中心的一次能源使用量或燃料消耗量的一种方法,其目的是确保数据中心购买的不同形式的能源(如电、天然气、冷水)可以进行公平地比较。 例如,如果一个数据中心购买当地公用事业公司提供的冷水,而另一个数据中心采用由电力生产的冷水,这就需要有一个系数能使得所使用的能源在相同的单位下进行比较,这个系数被称为能源转换系数,它是一个用来反映数据中心总的燃料消耗的系数。 当数据中心除采用市电外,还使用一部分其他能源时,就需要对这种能源进行修正。 2.1.8PUE和EEUE计算方法的比较 如果仅从定义来看,PUE和EEUE的计算方法十分简单,且完全相同。 但是当考虑到计算条件的不同,需要对电能使用效率进行修正时,2种效率的计算方法则有所不同。 1)PUE已考虑到使用不同能源时的影响,并给出了修正值和计算方法;GB/T.3—2016未包括可再生能源利用率,按照计划这一部分将在GB/T.4《可再生能源利用率》中说明。 2)PUE还有若干衍生能源效率指标可供参考,其中ISO提出的dPUE弥补了传统PUE的不足;EEUE则有类似于iPUE的指标EEUE-Ra。 3)EEUE分级(见表1)与PUE分级(见表2)不同。 4)EEUE同时考虑了安全等级、所处气候环境、空调制冷形式和IT设备负荷使用率的影响。 ASHRAE最初给出了19个气候区的PUE最大限值,由于PUE已从ASHRAE标准中去除,所以目前的PUE未考虑气候的影响;ISO在计算dPUE时,要求考虑气候的影响,但是如何考虑未加说明;PUE也未考虑空调制冷形式和负荷使用率的影响,其中IT设备负荷率的影响较大,应加以考虑。 2.2.PUE和EEUE的测量位置和测量方法 2.2.1PUE的测量位置和测量方法 根据IT设备测点位置的不同,PUE被分成3个类别,即PUE1初级(提供能源性能数据的基本评价)、PUE2中级(提供能源性能数据的中级评价)、PUE3高级(提供能源性能数据的高级评价)。 PUE1初级:在UPS设备输出端测量IT负载,可以通过UPS前面板、UPS输出的电能表以及公共UPS输出总线的单一电表(对于多个UPS模块而言)读取。 在数据中心供电、散热、调节温度的电气和制冷设备的供电电网入口处测量进入数据中心的总能量。 基本监控要求每月至少采集一次电能数据,测量过程中通常需要一些人工参与。 PUE2中级:通常在数据中心配电单元前面板或配电单元变压器二次侧的电能表读取,也可以进行单独的支路测量。 从数据中心的电网入口处测量总能量,按照中等标准的检测要求进行能耗测量,要求每天至少采集一次电能数据。 与初级相比,人工参与较少,以电子形式采集数据为主,可以实时记录数据,预判未来的趋势走向。 PUE3高级:通过监控带电能表的机架配电单元(即机架式电源插座)或IT设备,测量数据中心每台IT设备的负载(应该扣除非IT负载)。 在数据中心供电的电网入口处测量总能量,按照高标准的检测要求进行能耗测量,要求至少每隔15min采集一次电能数据。 在采集和记录数据时不应该有人工参与,通过自动化系统实时采集数据,并支持数据的广泛存储和趋势分析。 所面临的挑战是以简单的方式采集数据,满足各种要求,最终获取数据中心的各种能量数据。 对于初级和中级测量流程,建议在一天的相同时间段测量,数据中心的负载尽量与上次测量时保持一致,进行每周对比时,测量时间应保持不变(例如每周周三)。 2.2.2EEUE的测量位置和测量方法 1)Et测量位置在变压器低压侧,即A点; 2)当PDU无隔离变压器时,EIT测量位置在UPS输出端,即B点; 3)当PDU带隔离变压器时,EIT测量位置在PDU输出端,即C点; 4)大型数据中心宜对各主要系统的耗电量分别计量,即E1,E2,E3点; 5)柴油发电机馈电回路的电能应计入Et,即A1点; 6)当采用机柜风扇辅助降温时,EIT测量位置应为IT负载供电回路,即D点; 7)当EIT测量位置为UPS输出端供电回路,且UPS负载还包括UPS供电制冷、泵时,制冷、泵的能耗应从EIT中扣除,即扣除B1和B2点测得的电量。 2.2.3PUE和EEUE的测量位置和测量方法的差异 1)PUE的Et测量位置在电网输入端、变电站之前。 而GB/T.3—2016规定EEUE的Et测量位置在变压器低压侧。 数据中心的建设有2种模式:①数据中心建筑单独设置,变电站自用,大型和超大型数据中心一般采用这种模式;②数据中心置于建筑物的某一部分,变电站共用,一般为小型或中型数据中心。 由于供电局的收费都包括了变压器的损失,所以为了准确计算EEUE,对于前一种模式,Et测量位置应该在变压器的高压侧。 2)按照2.2.2节第6条,在计算EIT时,应减去机柜风机的能耗。 应该指出的是,机柜风机不是辅助降温设备,起到降温作用的是来自空调设备的冷空气,降温的设备为空调换热器,机柜风机只是起到辅助传输冷风的作用,因此机柜风机不应作为辅助降温设备而计算其能耗。 在GB/T.3征求意见时就有人提出:机柜风机的能耗很难测量,所以在实际工程中,计算PUE时,EIT均不会减去机柜风机的能耗。 在美国,计算PUE时,机柜风机的能耗包括在EIT中。 3)PUE的测点明显多于GB/T.3—2016规定的EEUE的测点。 2.3.PUE存在的问题 1)最近两年国内外对以往所宣传的PUE水平进行了澄清。 我国PUE的真实水平也缺乏权威调查结果。 GB/T.3—2016根据国内实际状况,将一级节能型数据中心的EEUE放宽到1.0~1.6,其上限已经超过了国家有关部委提出的绿色数据中心PUE应低于1.5的要求,而二级比较节能型数据中心的EEUE规定为1.6~1.8,应该说这样的规定比较符合国情。 2)数据中心总能耗Et的测量位置直接影响到PUE的大小,因此应根据数据中心建筑物市电变压器所承担的荷载组成来决定其测量位置。 3)应考虑不同负荷率的影响。 当负荷率低于30%时,不间断电源UPS的效率会急剧下降,PUE值相应上升。 对于租赁式数据中心,由于用户的进入很难一步到位,所以数据中心开始运行后,在最初的一段时间内负荷率会较低,如果采用设计PUE,也就是满负荷时的PUE来评价或验收数据中心是不合理的。 4)数据中心的PUE低并非说明其碳排放也低。 完全采用市电的数据中心与部分采用可再生能源(太阳能发电、风电等),以及以燃气冷热电三联供系统作为能源的数据中心相比,显然碳排放指标更高。 数据中心的碳排放问题已经引起国际上广泛地关注,碳使用效率CUE已经成为数据中心重要的关键性能指标,国内对此的关注度还有待加强。 5)GB/T.3—2016规定,在计算EIT时,应减去机柜风机的耗能。 关于机柜风机的能耗是否应属于IT设备的能耗,目前国内外有不同的看法,其中主流观点是服务器风机的能耗应属于IT设备的能耗,其原因有二:一是服务器风机是用户提供的IT设备中的一个组成部分,自然属于IT设备;二是由于目前服务器所采用的风机基本上均为无刷直流电动机驱动的风机(即所谓EC电机),风机的风量和功率随负荷变化而改变,因此很难测量风机的能耗。 由于数据中心风机的设置对PUE的大小影响很大,需要认真分析。 从实际使用和节能的角度出发,有人提出将服务器中的风机取消,而由空调风机取代。 由于大风机的效率明显高于小风机,且初投资也可以减少,因此这种替代方法被认为是一个好主意,不过这是一个值得深入研究的课题。 6)国内相关标准有待进一步完善。 GB/T.3—2016《数据中心资源利用第3部分:电能能效要求和测量方法》的发布,极大地弥补了国内标准在数据中心电能能效方面的不足;同时,GB/T.3—2016标准颁布后,也引起了国内学术界和工程界的热议。 作为一个推荐性的国家标准如何与已经颁布执行的强制性行业标准YD 5193—2014《互联网数据中心(IDC)工程设计规范》相互协调?在标准更新或升级时,包括内容相似的国际标准ISOIEC -2-2016在内的国外相关标准中有哪些内容值得借鉴和参考?标准在升级为强制性国家标准之前相关机构能否组织就其内容进行广泛的学术讨论?都是值得考虑的重要课题。 ASHRAE在发布ASHRAE90.4标准时就说明,数据中心的标准建立在可持续发展的基础上,随着科学技术的高速发展,标准也需要不断更新和创新。 7)PUE的讨论已经相当多,事实上作为大数据中心的投资方和运营方,更关心的还是数据中心的运行费用,尤其是电费和水费。 目前在数据中心关键性能指标中尚缺乏一个经济性指标,使得数据中心,尤其是大型数据中心和超大型数据中心的经济性无法体现。 2.4.PUE的比较 不同数据中心的PUE值不应直接进行比较,但是条件相似的数据中心可以从其他数据中心所提供的测量方法、测试结果,以及数据特性的差异中获益。 为了使PUE比较结果更加公平,应全面考虑数据中心设备的使用时间、地理位置、恢复能力、服务器可用性、基础设施规模等。 3.其他性能指标 3.1.ASHRAE90.4 ASHRAE90.4-2016提出了2个新的能源效率指标,即暖通空调负载系数MLC和供电损失系数ELC。 但这2个指标能否为国际IT界接受,还需待以时日。 3.1.1暖通空调负载系数MLC ASHRAE对MLC的定义为:暖通空调设备(包括制冷、空调、风机、水泵和冷却相关的所有设备)年总耗电量与IT设备年耗电量之比。 3.1.2供电损失系数ELC ASHRAE对ELC的定义为:所有的供电设备(包括UPS、变压器、电源分配单元、布线系统等)的总损失。 3.2.TGG白皮书68号 2016年,TGG在白皮书68号中提出了3个新的能源效率指标,即PUE比(PUEr)、IT设备热一致性(ITTC)和IT设备热容错性(ITTR),统称为绩效指标(PI)。 这些指标与PUE相比,不但定义不容易理解,计算也十分困难,能否被IT界接受,还有待时间的考验。 3.2.1PUE比 TGG对PUEr的定义为:预期的PUE(按TGG的PUE等级选择)与实测PUE之比。 3.2.2IT设备热一致性ITTC TGG对ITTC的定义为:IT设备在ASHRAE推荐的环境参数内运行的比例。 服务器的进风温度一般是按ASHRAE规定的18~27℃设计的,但是企业也可以按照自己设定的服务器进风温度进行设计,在此进风温度下,服务器可以安全运行。 IT设备热一致性表示符合ASHRAE规定的服务器进风温度的IT负荷有多少,以及与总的IT负荷相比所占百分比是多少。 例如一个IT设备总负荷为500kW的数据中心,其中满足ASHRAE规定的服务器进风温度的IT负荷为450kW,则该数据中心的IT设备热一致性为95%。 虽然TGG解释说,IT设备热一致性涉及的只是在正常运行条件下可接受的IT温度,但是IT设备热一致性仍然是一个很难计算的能源效率,因为必须知道:1)服务器进风温度的范围,包括ASHRAE规定的和企业自己规定的进风温度范围;2)测点位置,需要收集整个数据中心服务器各点的进风温度,由人工收集或利用数据中心基础设施管理(DCIM)软件来统计。 3.2.3IT设备热容错性ITTR TGG对ITTR的定义为:当冗余制冷设备停机,或出现故障,或正常维修时,究竟有多少IT设备在ASHRAE允许的或建议的送风温度32℃下送风。 按照TGG的解释,ITTR涉及的只是在出现冷却故障和正常维修运行条件下可接受的IT温度,但是ITTR也是一个很难确定的参数。 ITTR的目的是当冗余冷却设备停机,出现冷却故障或在计划维护活动期间,确定IT设备在允许的入口温度参数下(<32℃)运行的百分比,以便确定数据中心冷却过程中的中断或计划外维护的性能。 这个参数很难手算,因为它涉及到系统操作,被认为是“计划外的”条件,如冷却单元的损失。 3.3.数据中心平均效率CADE 数据中心平均效率CADE是由麦肯锡公司提出,尔后又被正常运行时间协会(UI)采用的一种能源效率。 CADE提出时自认为是一种优于其他数据中心能源效率的指标。 该指标由于被UI所采用,所以直到目前仍然被数量众多的权威著作、文献认为是可以采用的数据中心性能指标之一。 但是笔者发现这一性能指标的定义并不严谨,容易被误解。 另外也难以测量和计算。 该指标的提出者并未说明IT资产效率如何测量,只是建议ITAE的默认值取5%,所以这一指标迄今为止未能得到推广应用。 3.4.IT电能使用效率ITUE和总电能使用效率TUE 2013年,美国多个国家级实验室鉴于PUE的不完善,提出了2个新的能源效率——总电能使用效率TUE和IT电能使用效率ITUE。 提出ITUE和TUE的目的是解决由于计算机技术的发展而使得数据中心计算机配件(指中央处理器、内存、存储器、网络系统,不包括IT设备中的电源、变压器和机柜风机)的能耗减少时,PUE反而增加的矛盾。 但是这2个性能指标也未得到广泛应用。 3.5.单位能源数据中心效率DPPE 单位能源数据中心效率DPPE是日本绿色IT促进协会(GIPC)和美国能源部、环保协会、绿色网格,欧盟、欧共体、英国计算机协会共同提出的一种数据中心性能指标。 GIPC试图将此性能指标提升为国际标准指标。 3.6.水利用效率WUE TGG提出的水利用效率WUE的定义为:数据中心总的用水量与IT设备年耗电量之比。 数据中心的用水包括:冷却塔补水、加湿耗水、机房日常用水。 根据ASHRAE的调查结果,数据中心基本上无需加湿,所以数据中心的用水主要为冷却塔补水。 采用江河水或海水作为自然冷却冷源时,由于只是取冷,未消耗水,可以不予考虑。 民用建筑集中空调系统由于总的冷却水量不大,所以判断集中空调系统的性能时,并无用水量效率之类的指标。 而数据中心由于全年制冷,全年的耗水量居高不下,已经引起了国内外,尤其是水资源贫乏的国家和地区的高度重视。 如何降低数据中心的耗水量,WUE指标是值得深入研究的一个课题。 3.7.碳使用效率CUE TGG提出的碳使用效率CUE的定义为:数据中心总的碳排放量与IT设备年耗电量之比。 CUE虽然形式简单,但是计算数据中心总的碳排放量却很容易出错。 碳排放量应严格按照联合国气象组织颁布的计算方法进行计算统计。

全球算力竞争加剧,我国 ICT 建设驶入快车道

(报告出品方/分析师:银河证券研究院 赵良毕)

报告原标题: 通信行业深度报告:ICT“双碳”新基建,IDC 温控新机遇

(一)算力建设关乎数字经济发展,各国均不断发力

加快培育数据要素市场,全球算力竞争不断提升。 2020 年 4 月 9 日,《中共中央、国务院关于构建更加完善的要素市场化配置体制机制的意见》中,数据首次作为一种新型生产要素在文件中出现,与土地、劳动力、资本和技术等传统要素并列。计算力已经与国家经济息息相关。

IDC&清华产业研究院联合发布的《2021-2022 全球计算力指数评估报告》表明,计算力是数字经济时代的关键生成要素:

(1)从 2016-2025 年的整体趋势及预测来看,各个国家的数字经济占 GDP 的比重持续提升,预计 2025 年占比将达到 41.5%。

(2)计算力作为数字经济时代的关键生产力要素,已经成为挖掘数据要素价值,推动数字经济发展的核心支撑力和驱动力。

(3)国家计算力指数与 GDP 的走势呈现出了显著的正相关。评估结果显示十五个重点国家的计算力指数平均每提高 1 点,国家的数字经济和 GDP 将分别增长 3.5%和 1.8%,预计该趋势在 2021-2025 年将继续保持。同时,通过针对不同梯队国家的计算力指数和 GDP 进行进一步的回归分析后,研究发现:当一个国家的计算力指数达到 40 分以上时,国家的计算力指数每提升 1 点,其对于 GDP 增长的推动力将增加到 1.5 倍,而当计算力指数达到 60 分以上时,国家的计算力指数每提升 1 点,其对于 GDP 增长的推动力将提高到 3.0 倍,对经济的拉动作用变得更加显著。

数字化进程不断推进,发展中国家经济增速较高。 根据 IDC 数据显示,2016 年到 2025 年,数字经济占比不断提升,全球数字经济占比2025E为41%,其中发达国家数字经济占比为48.10%,比发展中国家高 17.8 个百分点。中美两国计算力指数综合评估较高,中国计算力发展水平涨幅达 13.5%,处于较高增长水平。总体来看,数字经济为各国 GDP 总量贡献不断提升,算力提升推动数字经济向好发展。

全球公有云用户市场保持增长,IT 侧资本开支不断增加。 云是推动企业数字化转型升级的重要驱动力, 企业不断增加对移动技术、协作以及其他远程工作技术和基础架构的投资。预计到 2023 年,用户支出将达到近 6000 亿美元,云将占全球企业 IT 消费市场的 14.2%。其中软件化服务(SaaS)是最大的细分市场,预计该市场在 2023E 用户支出增长至 2080.80 亿美元,相比 2021 年增长 36.73%;云基础建设(IaaS)将达到 1562.76 亿美元,相比 2021 年增长 70.53%。为了获得数字经济时代的比较优势,全球主要国家在数据中心的建设上进行了大规模投资,全球经济受到新冠疫情的严重影响下,数据中心的建设保持了较高增速,预计在未来几年云服务提供商与电信公司之间的合作日益增加,全球云市场有望进一步增长。

中国 IDC 市场规模增速较快,目前处于高速发展期。 受益于我国“新基建”战略提出和持续攀升的互联网流量,2021 年数据中心建设规模不断增长。根据中国信通院数据,我国 2021年 IDC 行业规模约 1500.2 亿元,近 5 年中国 IDC 市场年均复合增速约达 30%,领先于全球 IDC市场增速,其中近三年中国 IDC 市场具有高增速。我国 IDC 行业增速较快主要系我国 5G 建设持续推进,5G 应用项目多点开花不断落地,预计到 2025 年,我国数据中心市场规模达到 5952亿元。随着数字经济“东数西算”工程加速推进、互联网和云计算大客户需求不断扩张及数据中心在物联网、人工智能等领域的广泛应用,数据中心行业发展前景广阔,有望保持高速增长。

IDC 机柜数量不断增长,中国东部地区 IDC 中心较多。 2021 年 IDC 的机柜量增长了 99.15万架,增速为 30%,机柜量总数达到 415.06 万架,年度增长率达到 31.39%。随着 5G 时代数字经济向 社会 各领域持续渗透,数据量爆炸式增长使得全 社会 对算力需求提升,预计每年仍将以20%以上速度高增,有望打开市场新空间。目前我国大部分数据中心集中在东部及沿海地区,根据 CDCC 数据,2021 年华东、华北、华南三地区机柜数占全国总数的 79%,而东北、西北地区占比相对较低。

我国东部地区 IDC 上架率较高,西部地区加速建设。 目前 IDC 机房在我国东西部呈现差异较大发展,体现东密西疏、东热西冷的特点。2021 年新增机柜对比可知,东部及沿海地区数据中心上架率高,西部上架率较低。2021 年华东、华北、华南三地上架率约 60%-70%,而东北、西北、西南及华中上架率仅有 30%-40%。在政策布局方面,国家不断推进数字经济发展,形成以数据为纽带的区域协调发展新格局。对于网络时延要求不高的业务,率先向西部转移建设,由于西部地区气温较低优势突出,实施“东数西算”有利于数据中心提高能效,西部地区产业跨越式发展,促进区域经济有效增长。

(二)数字经济政策护航,“东数西算”工程建设有望超预期

把握数字化发展机遇,拓展经济发展新空间。2022 年 1 月,国务院发布《“十四五”数字经济发展规划》,规划强调数字经济是继农业经济、工业经济之后的主要经济形态,是以数据资源为关键要素,以现代信息网络为主要载体,以信息通信技术融合应用、全要素数字化转型为重要推动力,促进公平与效率更加统一的新经济形态。同时,规划明确提出到 2025 年,数字经济迈向全面扩展期,数字经济核心产业增加值占 GDP 比重达到 10%。基于上述规划,2022年 5 月 26 日,工信部在 2022 年中国国际大数据产业博览会上指出,坚持适度超前建设数字基础设施,加快工业互联网、车联网等布局。

推进绿色数据中心建设,提升数据中心可再生能源利用率。 我国能源结构正处在不断优化的过程中,新能源地区分布不均衡,特别是水力、光伏、风能,主要集中在中西部地区,而使用端主要在东部沿海地区,虽然通过“西电东送”工程部分缓解了东部地区用电紧张问题,但是作为高耗能的数据中心产业,协调东西部发展布局、降低能耗就十分必要。全国各省市、地区相继出台了各种强调数据中心绿色、节能的政策要求,进而促进能源生产、运输、消费等各环节智能化升级,催化能源行业低碳转型。

东西部资源高效匹配,建立全国一体化协同创新体系。 “东数西算”工程是我国继“南水北调”、“西气东输”、“西电东送”之后的又一项重大的国家战略工程,将东部海量数据有序引导到西部,优化数据中心建设布局,缩小东西部经济差异,促进东西部协同发展。2022 年 2 月17 日,国家发改委、中央网信办、工业和信息化部、国家能源局联合印发通知,同意在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等 8 地启动建设国家算力枢纽节点,并规划了 10 个国家数据中心集群。全国一体化大数据中心体系完成总体布局设计,“东数西算”工程正式全面启动。国家以“东数西算”为依托,持续推进数据中心与算力、云、网络、数据要素、数据应用和安全等协同发展,形成以数据为纽带的区域协调发展新格局,助力数字经济不断发展。

全球算力网络竞争力凸显,ICT 产业链有望迎来发展新空间。 通过全国一体化的数据中心布局建设,扩大算力设施规模,提高算力使用效率,实现全国算力规模化、集约化发展,有望进一步提升国家算力水平和全球竞争能力。同时,扩大数据中心在中西部地区覆盖,能够就近消纳中西部地区新型绿色能源,持续优化数据中心能源使用效率。通过算力枢纽和数据中心集群建设,将有力带动相关产业上下游投资,促进东西部数据流通、价值传递,延展东部发展空间,推进西部大开发形成全国均衡发展新格局。

(三)双碳减排目标明确,绿色节能成为发展必需

能源变革不断创新升级,低碳转型融入 社会 经济发展。 自上个世纪人类逐渐认识到碳排放造成的不利影响,各国政府和国际组织不断进行合作,经过不懈努力、广泛磋商,在联合国和世界气候大会的框架下达成了一系列重要共识,形成了《联合国气候变化框架公约》(1992 年签署,1994 年生效)、《京都议定书》(1997 年达成,2005 年生效)和《巴黎协定》(2015年达成,2016 年生效)等文件,其中《巴黎协定》规定了“把全球平均气温升幅控制在工业化前水平以上低于 2 以内”的基础目标和“将气温升幅限制在工业化前水平以上 1.5 之内”的努力目标。

推动能源革命,落实碳达峰行动方案。 为了达到《巴黎协定》所规定的目标,我国政府也提出了切合我国实际的双碳行动计划,2020 年 9 月 22 日,我国在第七十五届联合国大会上宣布,中国力争 2030 年前二氧化碳排放达到峰值,努力争取 2060 年前实现碳中和目标。中国的“双碳”目标正式确立,展现了中国政府应对全球气候变化问题上的决心和信心。同时 2021年度《政府工作报告》中指出:扎实做好碳达峰、碳中和各项工作,制定 2030 年前碳排放达峰行动方案。优化产业结构和能源结构。推动煤炭清洁高效利用,大力发展新能源,在确保安全的前提下积极有序发展核电。扩大环境保护、节能节水等企业所得税优惠目录范围,促进新型节能环保技术、装备和产品研发应用,培育壮大节能环保产业,推动资源节约高效利用。落实 2030 年应对气候变化国家自主贡献目标。加快发展方式绿色转型,协同推进经济高质量发展和生态环境高水平保护,单位国内生产总值能耗和二氧化碳排放分别降低 13.5%、18%。

聚焦数据中心低碳发展,实现双碳方式产业发展。 在双碳背景下,“东数西算”工程中数据中心西部迁移,PUE 值有望降低带来能耗电量高效利用。能源高效节能、革新升级已是大势所趋和必然要求。

(一)数据中心能耗突出,绿色节能是发展趋势

绿电成为发展趋势,低碳发展中发挥重要作用。 随着大力发展数据中心产业,数据中心能耗在国民经济中的占比也在不断提高。研究表明,预计 2025 年,数据中心能耗总量将达到 3952亿 kW·h,占全 社会 用电总量的 4.05%,比例逐年攀升。整体来看,由服务器、存储和网络通信设备等所构成的 IT 设备系统所产生的功耗约占数据中心总功耗的 45%。空调系统同样是数据中心提高能源效率的重点环节,所产生的功耗约占数据中心总功耗的 40%。降 PUE 将成为未来发展趋势,主要从制冷方面入手。

数据中心碳排放不断控制,PUE 值不断改善。 根据国家能源局 2020 年全国电力工业统计数据 6000 千瓦及以上电厂供电标准煤耗每度电用煤 305.5 克,二氧化碳排放量按每吨标煤排放 2.7 吨二氧化碳来计算,2021 年全国数据中心二氧化碳排放量 7830 万吨,2030 年预计排放约 1.5 亿吨二氧化碳。

量化指标评估数据中心能源效率。 为评价数据中心的能效问题,目前广泛采用 PUE(Power Usage Effectiveness)作为重要的评价指标,指标是数据中心消耗的所有能源与 IT 负载消耗的能源的比值。PUE 通常以年度为计量区间,其中数据中心总能耗包括 IT 设备能耗和制冷、配电等系统的能耗,其值大于 1,越接近 1 表明非 IT 设备耗能越少,即能效水平越好。

数据中心空调系统及服务器系统能耗占比较大。 数据中心的耗能部分主要包括 IT 设备、制冷系统、供配电系统、照明系统及其他设施(包括安防设备、灭火、防水、传感器以及相关数据中心建筑的管理系统等)。整体来看,由服务器、存储和网络通信设备等所构成的 IT 设备系统所产生的功耗约占数据中心总功耗的 45%。其中服务器系统约占 50%,存储系统约占 35%,网络通信设备约占 15%。空调系统仍然是数据中心提高能源效率的重点环节,它所产生的功耗约占数据中心总功耗的 40%。电源系统和照明系统分别占数据中心总耗电量的 10%和 5%。

(三)温控系统持续优化,节能技术变革打开新机遇

温控系统多元化趋势,节能技术不断突破。 当前主流的制冷方式包括风冷、水冷、间接蒸发冷却和液冷技术,根据数据中心规模、环境特点选择合适的制冷技术。提高数据中心的能效,尤其是空调制冷系统的能效成为研究重点。目前,数据中心空调制冷能效比的提升主要从液冷和自然冷源两方面入手。从制冷方式来看,风冷将逐渐被安装灵活、效率更高的液冷方式所取代。液冷技术目前应用于 5G 场景,通常对骨干网 OTN 设备、承载网设备以及 5G BBU 设备进行液冷,采用液冷技术可以通过液体将发热元件热量带走,实现服务器的自然散热,相互传统制冷方法,液冷技术更为高效节能。

冷却系统不断优化。 为了客观评价这些制冷技术以便进一步提高节能减排效率,中国制冷学会数据中心冷却工作组研究认为:采用数据中心冷却系统综合性能系数(GCOP)作为评价指标更为合理。

其中,GCOP 为数据中心冷却系统综合性能系数指标,用于评价数据中心冷却系统的能效。为数据中心总能耗,其中不仅包括数据中心市电供电量,也包括数据中心配置的发电机的供电量。为制冷系统能耗,包括机房外制冷系统的能耗,另外包括 UPS 供电的制冷风扇、关键泵以及设备机柜内风扇等制冷设备产生的能耗。

实际情况中,为了使能效评价结果更具有说服力与可比较性。冷却工作组建议使用数据中心全年平均综合性能系统数的(GCOPA)指标和特定工况下数据中心冷却系统综合性能系数(GCOPS)作为评价标准。

冷却工作组根据上述标准针对来自内蒙古呼和浩特、广东深圳、河北廊坊等地的高效数据中心进行分析。这些数据中心分布在不同建筑气候区,使用了不同系统形式和运行策略,例如高效末端、自然冷却、AI 控制的运行优化等。数据表明西部地区建设新型数据中心制冷能耗较优。我国数据中心冷却系统能效存在极大差异,提升我国数据中心冷却系统的能效意义较大,冷却系统仍存在巨大的节能潜力。

数据中心容量不断扩充,中美两国贡献较多。 根据 Synergy ReSearch Group 的最新数据显示,由大型供应商运营的大型数据中心数量已增至 700 家,而以关键 IT 负载衡量,美国占这些数据中心容量的 49%,中国是继美国之后对超大型数据中心容量贡献第二大的国家,占总量的 15%。其余的产能分布在亚太地区(13%)、EMEA 地区(19%)和加拿大/拉丁美洲(4%)。超大规模数据中心数量翻一番用了五年时间,但容量翻番用了不到四年时间。

空调系统建设成本较多。 根据IBM数据,数据中心的建设成本中空调系统的占比为16.7%。总体来说,2021 年数据中心基础设施设备总支出为 1850 亿美元,能源方面建设资本开支占较大份额,能源建设及利用效率有望进一步提升。

数据中心资本稳步增长,温控市场打开新空间。 根据 Synergy Research 的数据,2021年数据中心基础设施设备总支出(包括云/非云硬件和软件)为 1850 亿美元,公有云基础设施设备支出占比为 47%。面向硬件的服务器、存储和网络合计占数据中心基础设施市场的 77%。

操作系统、虚拟化软件、云管理和网络安全占了其余部分。参照 2021 年全球数据中心资本开支增长 10%的现实,假设未来 4 年数据中心每年资本开支保持增长 10%,我国数据中心温控系统市场规模 2021 年为 301 亿元,可在 2025 年达到 441 亿元。

(一)英维克:打造温控全产业链,行业高景气领跑者受益

国内技术领先的精密温控龙头,聚焦精密温控节能产品和解决方案。 公司自成立以来,一直专注于数据机房等精密环境控制技术的研发,致力于为云计算数据中心、通信网络、物联网的基础架构及各种专业环境控制领域提供解决方案,“东数西算”项目中提供节能技术。

公司营业收入高速增长,盈利能力表现良好。 2022Q1,公司实现营收 4.00 亿元,同比增长 17.10%,归母净利润 0.13 亿元,同比下降 59.26%,主要受原材料价格上涨、疫情反复等因素影响。2021 年英维克实现营业收入 22.28 亿元,同比增长 29.71%,自 2017 年以来 CAGR 达34.65%,主要是由于机房温控一些大项目验收确认,以及机柜温控节能产品收入增长。受益于整个行业的景气度,全年实现归母净利润 2.05 亿元,同比增长 12.86%,自 2017 年以来 CAGR达 24.25%,主要源自数据中心及户外机柜空调业务的持续增长。

公司毛利率总体稳定,未来有望止跌回升。 2021 年公司销售毛利率为 29.35%,同比下降9.50%,主要原因系上游原材料成本提升,公司整体盈利能力承压。净利率总体有所下降,销售净利率为 8.92%,同比下降 15.85%。随着公司持续数据机房等精密环境控制技术的研发,技术平台得到复用,规模效应愈发显著,公司未来毛利率及净利率有望企稳回升。

蒸发冷却、液冷技术为未来发展趋势,公司技术储备充足,产品系列覆盖全面。 目前国内数据中心温控方式仍然以风冷、冷冻水为主,由于热密度、耗能的提升,传统方案已经不能满足市场需求,散热方式逐渐从传统风冷模式发展到背板空调、液冷等新型散热方式,数据中心冷却系统呈现出冷却设备贴近服务器、核心发热设备的趋势,液冷、蒸发冷却技术优势明显。

研发投入持续增加提升核心竞争力,温控系统不断优化。 公司以技术创新作为企业发展的主要驱动力,不断加大研发投入。虽然受到上游原材料价格急速上涨和疫情反复的不利影响,公司始终坚持加大研发力度,为公司后续发展提供技术支撑。英维克作为细分行业龙头,及时捕捉市场发展动向,以技术创新作为企业发展的主要驱动力。

公司产品线丰富,方案灵活凸显竞争优势。 英维克的机房温控节能产品主要针对数据中心、服务器机房、通信机房、高精度实验室等领域的房间级专用温控节能解决方案,用于对设备机房或实验室空间的精密温湿度和洁净度的控制调节。其中包括 CyberMate 机房专用空调&实验室专用空调、iFreecooling 多联式泵循环自然冷却机组、XRow 列间空调、XFlex 模块化间接蒸发冷却机组、XStorm 直接蒸发式高效风墙冷却系统、XSpace 微模块数据中心、XRack 微模块机柜解决方案、XGlacier 液冷温控系统等产品与解决方案。

公司的产品直接或通过系统集成商提供给数据中心业主、IDC 运营商、大型互联网公司,历年来公司已为腾讯、阿里巴巴、秦淮数据、万国数据、数据港、中国移动、中国电信、中国联通等用户的大型数据中心提供了大量高效节能的制冷产品及系统。此外,英维克还提供机柜温控节能产品主要针对无线通信基站、储能电站、智能电网各级输配电设备柜、电动 汽车 充电桩、ETC 门架系统等户外机柜或集装箱的应用场合提供温控节能解决方案,以及用于智能制造设备的机柜温控产品。

(二)佳力图:运营商市场企稳互联网市场突破,业绩有望边际改善

精密环境温控龙头,打造恒温恒湿解决方案。 公司产品应用于数据中心机房、通信基站以及其他恒温恒湿等精密环境,公司客户涵盖政府部门以及通信、金融、互联网、医疗、轨道交通、航空、能源等众多行业。公司产品服务于中国电信、中国联通、中国移动、华为等知名企业。目前,公司拥有精密空调设备、冷水机组两大类产品,十三个系列产品线,产品的先进性、可靠性以及节能环保的优势在行业中始终保持主导地位,同时公司依托在环境控制技术和节能技术方面的优势,为数据中心提供节能改造服务。

公司营业收入保持增长,净利润有所下滑。2022Q1,公司实现营收 1.22 亿元,同比下降10.69%,归母净利润 0.14 亿元,同比下降 36.68%,主要受原材料价格上涨、疫情反复、竞争加剧等因素影响。

2021 年佳力图实现营业收入 6.67 亿元,同比增长 6.68%,自 2017 年以来CAGR 达 9.73%,全年实现归母净利润 0.85 亿元,同比下滑 26.35%,2021 年,公司主要是受到以下因素影响导致利润下滑,(1)南京疫情停工待产、限电限产、疫情延时交付验收的各种困难;(2)随着市场规模的不断扩大,国内机房空调市场竞争较激烈;(3)原材料价格特别是大宗商品价格持续上涨,原材料成本占公司营业成本平均比例达 70%以上,是公司产品成本的主要组成部分,铜、镀锌钢板在 2021 年度一直呈现上涨趋势,采购价格较 2020 年上涨了 20%-40%,导致公司成本呈现大比例增长。

图 17. 公司受多因素影响毛利率有所下降(单位:%)

公司精密环境领域产品丰富,技术先进。 公司产品应用于数据中心机房、通信基站以及其他恒温恒湿等精密环境,公司客户涵盖政府部门以及通信、金融、互联网、医疗、轨道交通、航空、能源等众多行业。公司产品服务于中国电信、中国联通、中国移动、华为等知名企业。

目前,公司拥有精密空调设备、冷水机组两大类产品,十三个系列产品线,产品的先进性、可靠性以及节能环保的优势在行业中始终保持主导地位,同时公司依托在环境控制技术和节能技术方面的优势,为数据中心提供节能改造服务。

研发投入不断投入,空调效率持续提升。 虽然受到上游原材料价格急速上涨和疫情反复的不利影响,公司始终保持加强技术研发团队建设,加强与高等院校、行业专家等机构、人士的合作,推动尖端理论研究和实践,依托现有的研发体系,充分发挥节能控制方面的技术优势,加快机房智能节能管理系统的研制,进一步提高公司产品的性能指标,加强在空调换热器效率提升、供配电技术方面的基础性研究实力,全面提升公司在机房环境控制一体化解决方案方面的创新能力。

公司核心技术不断凸显。 2021 年末公司拥有的核心技术有 36 项,同时有包含带封闭式高效冷却循环的通信模块、数据中心冷冻站集中控制系统、机房空调 VRF 系统、CPU 液冷技术、VRF 技术在机房空调领域的初级应用等 28 项在研项目。

(三)其他节能相关公司情况

申菱环境是国内提供人工环境调控整体解决方案的领先企业,服务场景数值中心、电力、化工、能源、轨道交通、环保、军工等领域。产品主要可分为数据服务空调、工业空调、特种空调三部分。公司是华为数据服务空调的主要供应商,与华为存在多年合作关系。除了华为业务的快速增长,也获得了腾讯等互联网龙头企业的认可。此外,申菱环境在储能方面也有布局。

依米康致力于在通信机房、数据中心、智慧建设以及能源管理领域为客户提供产品和整体解决方案,包括从硬件到软件,从室内精密空调到室外磁悬浮主机,从一体机和微模块到大型数据中心的设计、生产和运维服务,助力客户面对能源和生态挑战。公司信息数据领域的关键设备、智能工程、物联软件、智慧服务四大板块业务均可为数据中心产业链提供产品及服务。

高澜股份是国内领先的纯水冷却设备专业供应商,是国家级专精特新“小巨人”企业,从大功率电力电子装置用纯水冷却设备及控制系统起家,产品广泛应用于发电、输电、配电及用电各个环节电力电子装置。2020 年以来,通过企业并购,其新能源 汽车 业务收入大幅提升,动力电池热管理产品、新能源 汽车 电子制造产品收入占总营收比重均大幅上涨,合计收入占总营收比重达到 48.88%,首次超过纯水冷却设备成为公司第一大收入来源。

节能技术突破不及预期导致供给端产能释放缓;

原材料短缺及价格上涨;

市场竞争加剧;

下游数据中心市场增速不及预期。

求苏州国科数据中心的一些情况,要去面试哈

亚洲唯一T4级数据中心苏州国科数据中心在苏州国科综合数据中心有限公司的现办公地点,有一个巨大的球形建筑还处在钢结构施工阶段。 据国科数据中心运营中心总监于佳武介绍,未来这里将会作为公司的整体展示大厅。 尽管离建设全面竣工还有不少时间,但从公司的规划沙盘已经可以清晰的看出,坐落在独墅湖畔的这个建筑群必将会成为苏州工业园区一个崭新的靓丽风景。 苏州国科数据中心鸟瞰图于佳武称,由于球形结构的施工复杂性,所以直到别的办公区都已投入运营,这个建筑还在不断调试当中。 但于佳武显然在这里卖了一个关子,因为在后来的参观中,记者发现苏州国科综合数据中心有限公司善于玩复杂工艺的远远不仅限于这些高难度的建筑而已。 平衡之术中国古代建筑的精髓在于对称,而这也体现了中国人追求平衡,向往平和、中庸的心理特征。 上海世博会里中国馆以斗拱为架构、以斗冠为造型、以九宫格为屋顶,极富中国韵味。 此外,中国城市往往呈现棋盘式结构,就像是练字的九宫格,相互对称。 而在苏州国科数据中心里,贯穿始终的竟然也是这种平衡之美。 尽管苏州国科数据中心总经理顾宗根介绍说:目前国内大多数据中心的建筑规模一般都在1~2万平方米,而我们的规划面积达到5.2万平方米。 但是,在实际参观中,记者发现如此浩大的数据中心实际机房占用面积却只在30%左右。 苏州国科数据中心电力系统千万不要急着去感叹如此的一种浪费,因为,在这其中隐含了一个很重要的因素那就是平衡。 原来,在国科数据中心里,所有的IT主设备、管路路由等都是按照双路所设计,除了电力、制冷、网络以外,就连弱电系统、空调设备、电信系统以及柴油发电机等都必须要求双路备份。 这既是符合T4认证的首要标准,而且即使在发生单点故障的情况下,也能够保证数据中心的正常运营,从而实现为最终用户带来99.995%的可靠性。 说到这,也许你会对如此严格的认证体系感到好奇,其实早在美国标准 TIA-942 《数据中心的通信基础设施标准》中,就已根据数据中心基础设施的可用性( Availability )、稳定性( Stability )和安全性( Security )分为了四个等级: Tier I, Tier II,Tier III,Tier IV。 而如何来进行级别的界定则是源于美国标准The Uptime Institute的《Industry Standard Tier Classifications De ne Site Infrastructure Performance》(《采用分类等级的方式定义场地基础设施性能的工业标准》)。 在该标准中,美国 The Uptime Institute 依据工程需求与实践,提出了场地基础设施的分类等级的体系框架,针对数据中心的关键设备期望达到五个九即 99.999% 的系统应用可用性的需求,提出了要与之相匹配的机房场地基础设施 ( 电源配电、暖通空调、以及其他的相关系统 ) 的可用性等级指标。 具体到等级IV 的数据中心,是指具有能够进行任何有计划的活动且不会对关键的负荷造成中断的能力,且有提供场地基础设施容量及其能力。 这需要同时活跃的分配道路,通常在 S+S 的双电源系统配置里,电力系统供应表示为每个有 N 冗余的两个单独的 UPS 系统。 在一个系统上涉及的关键负荷不超过N的80%。 在这样的数据中心中需要全部计算机硬件有故障容错的双电源输入,严格的故障容错测验使数据中心具有维持无计划故障或者运行错误时,不发生计算机机房过程中断的能力。 顾宗根表示:尽管现在国内有很多数据中心都自称已经达到了T4的标准,但其实这里有很多细微却至为重要的差别。 比如电,我们是从两个不同变电站引入两路20KV市电,再通过不同路由进入数据中心的配电室。 而有些数据中心名义上说是两条电路,但其实都是引自一家变电站,这样一来,一旦该变电站发生问题根本无法保证备用电源的正常供给。 高而不贵众所周知,国内在建设数据中心的时候,首先要打交道的就是电老虎。 对于国科数据中心如此高规格的机房来说,前文所提到的20KV市电显然远远不够。 而在这方面,顾宗根首先庆幸于苏州工业园区得天独厚的优势。 早在16年前,苏州工业园区正式宣布与新加坡展开合作时,两国政府就按照超前国内50年的标准规划对园区的基础设施进行了部署,对电、制冷以及通讯网络等其他基础设施要求非常高。 顾宗根说:国内其他电网一般都是1万伏,而我们都是2万伏。 光是第一期项目开始,我们就申请到了两路各千瓦的试电,之后我们又申请了4万千瓦,这在一般的城市根本不可能实现。 有了优异的电力基础,国科数据中心还采用了美国康明斯柴油发电机组进行双冗余设计,一期配置了7台2000KW柴油发电机,具有独立油库,柴油后备时间可满足数据中心48小时连续运行。 为了能够达到T4所要求的制冷需求,顾宗根表示公司除了自己组建了2600冷吨中央冷水机组之外,苏州工业园还在数据中心旁边建立了一个大规模的市政的集中供冷系统,通过市政投资,把冷冻水运到数据中心内。 当然,作为一个第三方托管数据中心,除了电力与制冷外,网络的性能也是决定其服务质量的关键。 顾宗根一直强调一点,那就是目前国内很多的第三方数据中心都在运营商的数据中心市场夹缝中生存。 所以,这次在建立国科数据中心的初期,他们就一一打通了与中国电信、中国移动、中国联通和广电四大运营商之间的合作关系。 现在,拥有电信、联通、移动等基础电信运营商的多线路核心骨干网接入,加上核心网络设备采用CISCO-NEXUS 7000系列,全部双冗余拓扑结构,从而形成覆盖科技园、联通全省全国的稳定、可靠的网络系统,并具备8条155M国际电路使用权,充分保障离岸外包企业的国际网络需求。 苏州国科综合数据中心有限公司总经理 顾宗根别看如此庞大的双冗余设计架构,但由于采用了IBM节能降耗的技术控制手段,并结合了绿色环保技术,通过对空调系统、机房布局、动力系统、冷却系统的创新设计,最终实现了能源效率系数PUE值小于1.6,大大提高了系统的能源使用率,从而有效降低了数据中心的日常运行成本。 说了这么多国科数据中心中心的资源优势,接下来国科数据中心的租赁费用成为了一个呼之欲出的问题。 据顾宗根介绍,国科数据中心总投资有8.4亿元,仅初期投资就有5.7亿元,这样一个设备配置堪称奢华的数据中心,其使用费用是不是也会令人乍舌?对此,顾宗根举了一个例子:目前日本、香港按照T4标准所建立的数据中心,其每平方米的年租金大概在20几万左右。 在国内,上海能达到T3标准的数据中心,每平方米的年租金也在两万元以上,而我们只要一万多。 用一万多元来换取T4标准的保证,我觉得这个帐并不难算。 顾宗根相信,如此高而不贵的使用条件,能很快为数据中心赢得客户的兴趣。 事实证明,截止2010年11月底,公司制订的1000万的营收指标已经顺利完成。 接下来他们将力争在3~5年内成为国际一流的商业数据中心,能独立为2000家企业提供综合数据服务的解决方案。 云之未来对于未来的发展,国科数据中心首先把关注点放在已经入驻苏州工业园区的企业,在顾宗根看来,这些是他们最有潜力的客户。 据了解,国科数据中心将主要服务于三大类客户:高科技中小企业、政府服务机构,以及ITO/BPO/金融后台服务。 而在产品定位上,苏州国科将产品与服务分成三个层次:环境即服务(IAAS)、平台即服务(PAAS)以及软件即服务(SAAS)。 显而易见,这三种层次的服务全面构成了云服务的整体。 谈到云计算,顾宗根表示他们在这个领域早已积累了不少成功的经验。 如果我不能提供云计算的服务,而仅仅是一个奢华的环境,并不能真正降低企业的IT投入。 试想客户如果买了一大堆的IT系统,然后放到这里来,过了三年又要面临淘汰更新,这对于企业的IT投资来说是非常不利的。 所以我们现在的建设过程中,已经投资了3000万用于云计算的系统。 在未来的两年内,我们还会投资6000~7000万。 顾宗根一直在反复强调,不管是硬件的云,还是最后能够提供软件的服务,只有把云计算的这些资源全部建设好,企业客户才可以动态地按需使用数据中心的IT资源。 苏州国科数据中心控制中心说到云服务,同样位于苏州工业园的风云网络是国科的兄弟公司。 风云网络已经做了3年的SaaS服务,在国内小有名气。 顾宗根说,风云网络已经做了1000多个产品,用户量达到1万多家。 然而,由于没有一个大规模的数据中心,很多终端客户对风云网络提供的SaaS服务的可靠性心怀疑虑。 我想,国科数据中心介入云计算之后,将提高客户对风云网络SaaS服务的信任度。 苏州国科数据中心安保监控中心谈及未来,顾宗根表示,之所在苏州国科数据中心一期工程上,选择IBM GTS承接了设计与建设工程,就是因为看重了IBM在全球有470个共计80万平方米的数据中心,看重了IBM在数据中心管理运维方面的经验,这次通过IBM辅助其完成了Uptime Institute的认证也足以说明这点,所以在今后,双方的合作还会走得更远。 顾宗根充满信心地表示:未来3年,我们还会联合IBM共同建设卓越数据中心与创新云服务,致力打造江苏省乃至华东地区最大的灾备中心、云服务中心和IT外包服务中心。 记者观察说说搭建数据中心的那些事正如一个硬币的正反两面一样,在这样一个最终成功的案例面前,人们总希望更多地去挖掘它背后所经历过的困难与挫折。 但是,当国科数据中心的负责人在回顾这些并不遥远的过去时,最先值得他们怀念的却是一些非常细微但却有意思的事。 由于这次数据中心的整体建设方面都交由IBM来全权把关,其实并没有出现过什么太大的问题。 但是,在此之前我们和土建部门打的交道倒是破费了我们一些精力。 顾宗根笑着解释道:原来作为一般房子建设的施工单位,他们并不懂得什么叫数据中心,所以在建设过程中我们需要跟他们做大量的沟通和解释工作,数据中心这样的项目是个生产型项目,不是我们以前想的写字楼、办公楼项目,建完以后,里面所有的设施设备都是生产型设备,在土建方面,在房子建设的同时就要考虑到这些设备的整个特征和特点。 顾宗根告诉记者:现在很多人对于我们这样高规格高投入的数据中心,总会关心一个商业运营的或是管理成本的问题,其实,在我们自身看来最大的挑战是怎么样运用好这个数据中心。 在设计完以后,怎么样充分运用它的灵活性、模块化的一些特征,能够满足更多高端客户的个性化需求。 今天你们看到我们很多地方排得整整齐齐的机柜,也许到了一个季度以后,到我们开放第二个机房的时候就会面目全非。 高端的客户有很多自己的个性化要求,怎么样满足他们的要求,又能够把这些不同的要求整合到我们以最低的成本去提供服务,这是我们面临的挑战。 苏州国科数据中心基本参数基本信息建筑面积达5.2万平米,初期投资5.7亿元,为亚太区首个通过国际正常时间协会(Uptime Institute)所颁发的Tier IV(T4)等级认证的数据中心。 能源效率系数PUE值小于1.6机柜:一期1700个,二期2400个。 网络:具备苏州电信、苏州联通、苏州移动、江苏有线四家网络资源。 存储:初期使用两条HP EVA 6400存储产品为客户提供56TB的存储空间,可扩充至108TB。 磁带库:使用MLS 8096 磁带库,目前配置96块磁盘勇于数据备份恢复服务。 自动化使用SONY IP视频监控系统,通过VPN及远程桌面监视机房内的环境,并可对历史影像资料进行调用查看。 虚拟化提供基于虚拟化计算资源整合和即需即供服务模式的云平台,目前可提供的计算能力为1080颗CPU、1920GB内存、28TB硬盘空间、1080个虚拟网卡。 绿色节能采用了IBM节能降耗的技术控制手段,并结合了绿色环保技术,对空调系统、机房布局、动力系统、冷却系统都实施了创新设计。 安全严格按照T4标准,所有的IT主设备、管路路由等都是按照双路所设计,即使在发生单点故障的情况下,也能够保证数据中心的正常运营,从而实现为最终用户带来99.995%的可靠性。

关于云计算技术的文章1500字

云计算技术的发展趋势一、数据中心向整合化和绿色节能方向发展目前传统数据中心的建设正面临异构网络、静态资源、管理复杂、能耗高等方面问题,云计算数据中心与传统数据中心有所不同,它既要解决如何在短时间内快速、高效完成企业级数据中心的扩容部署问题,同时要兼顾绿色节能和高可靠性要求。 高利用率、一体化、低功耗、自动化管理成为云计算数据中心建设的关注点,整合、绿色节能成为云计算数据中心构建技术的发展特点。 数据中心的整合首先是物理环境的整合,包括供配电和精密制冷等,主要是解决数据中心基础设施的可靠性和可用性问题。 进一步的整合是构建针对基础设施的管理系统,引入自动化和智能化管理软件,提升管理运营效率。 还有一种整合是存储设备、服务器等的优化、升级,以及推出更先进的服务器和存储设备。 艾默生公司就提出,整合创新决胜云计算数据中心。 兼顾高效和绿色节能的集装箱数据中心出现。 集装箱数据中心是一种既吸收了云计算的思想,又可以让企业快速构建自有数据中心的产品。 与传统数据中心相比,集装箱数据中心具有高密度、低PUE、模块化、可移动、灵活快速部署、建设运维一体化等优点,成为发展热点。 国外企业如谷歌、微软、英特尔等已经开始开发和部署大规模的绿色集装箱数据中心。 通过服务器虚拟化、网络设备智能化等技术可以实现数据中心的局部节能,但尚不能真正实现绿色数据中心的要求,因此,以数据中心为整体目标来实现节能降耗正成为重要的发展方向,围绕数据中心节能降耗的技术将不断创新并取得突破。 数据中心高温化是一个发展方向,低功耗服务器和芯片产品也是一个方向。 二、虚拟化技术向软硬协同方向发展按照IDC的研究,2005年之前是虚拟化技术发展的第一阶段,称之为虚拟化1.0,从2005年到2010年时虚拟化发展的第二阶段,称之为虚拟化2.0,目前已经进入虚拟化2.5阶段,虚拟化3.0阶段在不久也将会到来。 根据Gartner的预测,到2016年中国70%的X86企业服务器将实现虚拟化。 ArsTechnica网站上刊出的一篇文章评论到,当前的虚拟化市场当中,VMware是老大,微软Hyper-V老二,思杰Xen第三,红帽和甲骨文在争夺第四把交椅。 随着服务器等硬件技术和相关软件技术的进步、软件应用环境的逐步发展成熟以及应用要求不断提高,虚拟化由于具有提高资源利用率、节能环保、可进行大规模数据整合等特点成为一项具有战略意义的新技术。 首先,随着各大厂商纷纷进军虚拟化领域,开源虚拟化将不断成熟。 Gartner也指出,虽然目前开源虚拟化的市场还比较小,但到2014年底其市场份额将翻番,而且未来也会快速增长。 其次,随着虚拟化技术的发展,软硬协同的虚拟化将加快发展。 在这方面,内存的虚拟化已初显端倪。 第三,网络虚拟化发展迅速。 网络虚拟化可以高效地利用网络资源,具有节能成本、简化网络运维和管理、提升网络可靠性等优点。 VMware和思科公司通过四年的合作,在网络虚拟化领域取得突破创新,推出了VXLAN(虚拟可扩展局域网)。 VXLAN已获得多个行业领先厂商的支持。 三、大规模分布式存储技术进入创新高峰期在云计算环境下,存储技术将主要朝着从安全性、便携性及数据访问等方向发展。 分布存储的目标是利用多台服务器的存储资源来满足单台服务器不能满足的存储需求,它要求存储资源能够被抽象表示和统一管理,并且能够保证数据读写操作的安全性、可靠性、性能等各方面要求。 为保证高可靠性和经济性,云计算采用分布式存储的方式来存储数据,采用冗余存储的方式来保证存储数据的可靠性,以高可靠软件来弥补硬件的不可靠,从而提供廉价可靠的海量分布式存储和计算系统。 在大规模分布式存储技术中,基于块设备的分布式文件系统适用于大型的、海量数据的云计算平台,它将客户数据冗余部署在大量廉价的普通存储上,通过并行和分布式计算技术,可以提供优秀的数据冗余功能。 且由于采用了分布式并发数据处理技术,众多存储节点可以同时向用户提供高性能的数据存取服务,也保证数据传输的高效性。 目前国外很多大学、研究机构和公司已经或正在着手开发分布式文件系统,已经涌现出一批著名的分布式文件系统,如PVFS、GPFS、zFS、Google FS、Hadoop FS等,进一步更深入的研发也还在进行中。 除了大规模分布式存储技术,P2P存储、数据网格、智能海量存储系统等方也是海量存储发展的趋势体现。 其中,P2P存储可以看做是分布式存储的一种,是一个用于对等网络的数据存储系统,旨在提供高效率、鲁棒和负载均衡的文件存取。 数据网格是有机的智能单元的组合,类似于计算网格。 智能海量存储系统包括主动的数据采集、数据分析、主动调整等。 云计算中存储的海量数据应用将为云计算提供新的价值高点,也必将成为云计算发展的重点方向之一。 四、分布式计算技术不断完善和提升资源调度管理被认为是云计算的核心,因为云计算不仅是将资源集中,更重要的是资源的合理调度、运营、分配、管理。 云计算数据中心的突出特点,是具备大量的基础软硬件资源,实现了基础资源的规模化。 但如何合理有效调度管理这些资源,提高这些资源的利用率,降低单位资源的成本,是云计算平台提供商面临的难点和重点。 业务/资源调度中心、副本管理技术、任务调度算法、任务容错机制等资源调度和管理技术的发展和优化,将为云计算资源调度和管理提供技术支撑。 不过,正成为业界关注重点的云计算操作系统有可能使云计算资源调度管理技术走向新的道路。 云计算操作系统是云计算数据中心运营系统,是指架构于服务器、存储、网络等基础硬件资源和单机操作系统、中间件、数据库等基础软件管理海量的基础硬件资源和软件资源的云平台综合管理系统,可以实现极为简化和更加高效的计算模型,以低成本实现指定服务级别、响应时间、安全策略、可用性等规范。 现在云计算的商业环境对整个体系的可靠性提供了更高的需求,为了支持商业化的云计算服务,分布式的系统协作和资源调度最重要的就是可靠性。 未来成熟的分布式计算技术将能够支持在线服务(SaaS),自从2007年苹果iPhone进入市场开始,事情发生很大的变化,智能手机时代的到来使得Web开始走进移动终端,SaaS的风暴席卷整个互联网,在线应用成为一种时尚。 分布式计算技术不断完善和提升,将支持在跨越数据中心的大型集群上执行分布式应用的框架。 五、安全与隐私将获得更多关注云计算作为一种新的应用模式,在形态上与传统互联网相比发生了一些变化,势必带来新的安全问题,例如数据高度集中使数据泄漏风险激增、多客户端访问增加了数据被截获的风险等等。 云安全技术是保障云计算服务安全性的有效手段,它要解决包括云基础设施安全、数据安全、认证和访问管理安全以及审计合规性等诸多问题。 云计算本身的安全仍然要依赖于传统信息安全领域的主要技术。 不过另一方面,云计算具有虚拟化、资源共享等特点,传统信息安全技术需要适应其特点采取不同的模式,或者有新的技术创新。 另外,由于在云计算中用户无法准确知道数据的位置,因此云计算提供商和用户的信任问题是云计算安全要考虑的一个重点。 总体来说,云计算提供商要充分结合云计算特点和用户要求,提供整体的云计算安全措施,这将驱动云计算安全技术发展。 适应云计算的特点和安全需求,云计算安全技术在加密技术、信任技术、安全解决方案、安全服务模式方面加快发展。 此外,未来的安全趋势,势必会涉及终端及移动终端各个层面,包括各类PC、手机在内的智能终端、可穿戴设备,都有可能会面临攻击者的挑战,这样的攻击对多种设备会变得日益难以防护。 解决终端安全,云安全是首先需要解决的,即从云端首先判断安全的趋势,而不是孤立的从一台终端来判断。 通过云端安全的大数据分析,可以清晰发现其中存在的多种威胁趋势,从而及时拦截新木马以及防止网络入侵和攻击。 隐私权保护问题虽是云计算普及过程中需要解决的一大难题,但随着云计算的发展及相关标准的成熟。 相信隐私权会得到更好地保护,云计算也将像互联网上的其他应用环境一样,深刻地影响我们的生活方式。 六、SLA细化服务质量监控实时化要想让用户敢于将关键业务应用放在云计算平台上,粗放的服务协议显然无法让人放心,用户需要知道云计算厂商能否快速地将数据传遍全国、网络连接状况又能好到何种程度。 对于激增的商业需求而言,性能的拓展是不够的,而云计算提供商能够多快地拓展性能也事关重要。 用户需要能够让他们高枕无忧的服务品质协议,细化服务品质是必然趋势。 云计算对计算、存储和网络的资源池化,使得对底层资源的管理越来越复杂,越来越重要,基于云计算的高效工作负载监控要在性能发生问题之前就提前发现苗头,从而防患于未然,实时的了解云计算运行详细信息将有助于交付一个更强大的云计算使用体验,也是未来发展的方向。 此外,开源云计算技术进一步普及应用。 数据表明,目前全世界有90%以上的云计算应用部署在开源平台上。 据Black Duck统计,2010年年底,平台型的开源云计算项目达到470多项,2011年启动的开源项目中40%都是跟云计算相关(另外19%与移动相关,15%与企业应用相关)。 云计算对于安全、敏捷、弹性、个性化开源平台的需求以及突出的实用、价廉的特性,也决定了开源计算平台在云时代的领军位置。 很多云计算前沿企业和机构如亚马逊、谷歌、Facebook都在开发部署开源云计算平台。 开源云计算平台不仅减少了企业在技术基础架构上的大量前期投入,而且大大增强了云计算应用的适用性。 开源云计算技术得到长足发展的同时,必将带动云计算项目更快更好落地,成为企业竞争的核心利益。 为此,开源云计算技术将进一步得到重视和普及。

现代数据中心六大优化趋势

现代数据中心六大优化趋势 能源成本仍然是数据中心增长最快的费用,据说超过了计算设备本身的成本。 电力使用效率(PUE)和碳使用效率(CUE)是国际公认的指标,与更多其他的定义指标一道,将成为行业标准。 新的数据中心的建设和改造,必须同时应对业务和绿色环保的双重需求。 随着数据中心的成本不断飙升,数据中心管理的重点开始转向优化数据中心基础设施。 在未来几年,如下的一些新的趋势必将影响未来数据中心的决策: (一)数据中心的远程监控关于企业数据中心是否采用外包的争论仍在继续。 企业已决定继续在内部运行IT,并找到了成本有效的使用外部数据中心监控的供应商。 在某些情况下,物理基础设施设备,外部监测和第一级的支持,需要安全访问权限。 需要更多的基础设施防火墙和安全措施,这将增加数据中心的复杂性。 另一方面,由于工作人员工资和工作空间是连续的支出。 此外,一个团队规模的缩放在外部环境规模更容易。 (二)数据中心的选址一家数据中心的选址问题是一个相当重要的决定。 因为现在的技术进步已经使得大多数任务可以进行远程操作,现场只需要有少量的工作人员需要即可,这就为数据中心的选址提供了广泛的地域选择。 对这一决定有着相当影响的一些因素是:选址地区的气候特点每千瓦小时的最低费用对环境的最小危害降低生产成本选址地区较低的人口稠密度低建设成本低劳动力成本“自然冷却”的可行性:使用室外空气用于冷却数据中心,从而需要减少机械制冷。 (三)绿色IT能源消耗直接影响冷却费用,毕竟散热主要来自设备。 战略业务计划将直接影响到安装在数据中心的IT设备的类型和数量。 了解数据中心的设备的类型和工作效率的相关知识是非常重要的,因为这会影响数据中心电源和冷却战略,以及数据中心的物理设计战略。 使IT更具效率和成本效益,继续成为业界关注的焦点,无论是对于制造商还是消费者。 [page] (四)可扩展性和模块化在过去几年中,只有硬件和软件的可扩展性和模块化架构,以满足日益增长的需求。 鉴于对基础设施的成本和需求的压力,现在有必要对数据中心基础设施实施可扩展性和模块化设计方法。 这样的做法,例如,适用于UPS和配电系统,将使数据中心添加/禁用某一部分,不会影响另一家数据中心。 灵活的设计使托管服务提供商可以根据客户的要求添加和删除数据中心的某些部分。 为了迎合顾客的不同负载和任务的需求,也需要一个灵活的设计。 (五)灾难恢复优化和可用性从历史上看,硬件的利用率很低,虚拟化还有很长的路要走。 然而,人们关注的重点一直聚焦在如何提高生产数据中心的效率,却并未考虑灾难恢复(DR)/备份中心的问题。 因为其一直处于“关闭”或“闲置”。 现在,企业已经意识到开始对这些“闲置”的设备进行重要的投资。 并采用创新的方法,将其用于灾难恢复(DR)的基础设施。 使用灾难恢复中心作为测试、培训的趋势正在持续增长。 设计需要考虑到切换的能力,以最安全,最快捷的手段来生产。 (六)数据中心基础设施管理IT和数据中心设施管理的融合是一个现实。 大多数基础设施设备是按照IP寻址,就像IT设备已经实施了多年一样。 开发阶段的几家公司要将两种不同的环境融合在一起。 按照情景规划的IT组件和物理基础设施元素的能力,将使设计师知道计划和变化的IT环境如何影响物理环境,反之亦然。 例如,如果我们安装了特定类型的IT硬件,将对UPS和冷却系统的负载产生何种影响?避免成本不超过工程费用将实现这些产品顺利打入市场。 至关重要的是,这些因素必须在数据中心策略和设计的早期阶段充分考虑到,毕竟这些功能将对IT预算产生非常重要的影响,如果没有计划好,可能会对数据中心的计算能力和运营成本产生不利影响。 罗恩蒂尔森是Infosys信息技术有限公司可持续发展实践的首席顾问。 拥有30多年的IT从业经验,其中26年是数据中心行业相关。 对于本文亦有贡献,他曾在新的数据中心建设和现有网站的建设部署过程中担任过各项职责,致力于物理和IT基础设施的工作。 本文作者维伯哈夫巴蒂亚是Infosys信息技术有限公司和数据中心认证协会可持续发展实践的高级顾问。 拥有9年的IT从业经验,成功管理着一家数据中心,并在多个数据中心的优化和绿色IT倡议组织工作。

打造绿色节能大数据中心 湖南移动5G低碳运营助力双碳绿色行动

绿色是高质量发展底色。为加快绿色数据中心建设,湖南移动推动清洁能源安全高效利用,以完善能源管控、引导能源结构升级为目标,聚焦低碳建设、低碳运维两个关键环节,一方面加强数据中心的节能降耗能力打造,多举措降低供电损耗、提升设备效能,另一方面加快5G基站用能转型,完成能源改造后的5G基站可节省30%用电量,为实现碳达峰、碳中和目标贡献力量。

数据中心智慧化系统应用

打造绿色节能大数据中心智慧管理心中有”数“

移动互联网时代,数据是最重要的资源之一,而数据中心作为承载数据的新型基础设施,重要程度不言而喻。但随着互联网产业的蓬勃发展,大型数据中心的耗能和碳排放也日益加重。因此,打造绿色数据中心,降低数据中心碳排放势在必行。

湖南移动在株洲数据中心规划之初,就优先考虑节能减排,从建筑格局、外形结构、体形系数等方面着手,大力推广标准化绿色节能设计。不仅在建筑设计、材料选择等方面开展环保评估,在电源和空调等配套设备选型上坚持应用绿色先进技术,其中电源设备采用巴拿马电源技术,通过10KV直接输入,DC240V输出供ICT设备使用,化繁为简,将原本若干套设备精简集成为一套设备,提高3%电源转换效率,节省电费的同时还能节约投资、节约机房面积,实现快速部署。

数据中心设备功能强大,但会产生大量热量,而服务器、处理器必须在一定温度以下才能保持最佳性能,空调制冷系统就成为耗电“大户”。湖南移动在空调设备方面,采用水冷空调、水泵变频、热管冷却等技术,利用高压离心式冷水机组+板式换热器+开式冷却塔系统,在冬季充分利用自然冷源,减少冷水机组机械制冷的运行时间,再叠加新型空调末端技术,直接就近对设备进行冷却,进一步降低制冷传输造成的能耗。以上多种技术相结合,使空调制冷系统的能效比提升近一倍。

数据中心空调新技术应用

为推进智慧化数据中心运维管理,湖南移动搭建了数据中心能耗管理平台、IDC集中运维平台,通过分析楼栋、机房、设备的能耗数据,定位IT设备、供电、空调等高能耗点位,并根据IDC业务运行数据的实时监控,输出自适应的调优维护策略,通过空调运行参数优化、主设备运行调优,使各设备处于整体能耗最优模式下运行,也避免了因局部热岛问题导致整体能耗升高问题,实现了智慧制冷,确保数据中心低能耗、高性能运行。

MIMO电源+太阳能 打造5G基站低碳示范站

图为应用太阳能清洁能源的5G低碳基站

5G基站的耗电量有多大?来自湖南移动数据显示,基站耗电量占整个移动通信网络能耗的60%,5G基站功耗是4G基站的3倍。因此,提高5G基站自身的节能降耗水平,是5G发展和通信业助力全 社会 实现双碳目标的重要基础。

5G低碳基站示范站一体化能源柜

湖南移动以5G组网架构为演进方向,开展全网CRAN化改造,采用“一站一柜”的低碳建网方案,将主设备、空调、电源、电池集成在一体化室外能源机柜内,逐步替代传统土建机房,再结合“MIMO电源+太阳能”的叠光运行方案,利用太阳能资源为基站供电和电池充电,节省基站市电直接使用量,再通过引入MIMO电源技术,实现太阳能、市电、发电机组等多能源的接入,保障网络安全稳定运行。在空调设备新技术应用方面,通过“重力热管型双循环空调+封闭热通道”的机柜级制冷方式,直接就近对设备进行冷却,可大量节省制冷量,降低能耗。

为推进5G基站绿色运维、降本增效,湖南移动在一体化能源柜基础上搭建了基站能耗智慧管理平台,集成“AI+大数据+IoT+电力电子+储能技术+传感技术”于一体,可免电表实现每个设备的电量精确测量,用电足迹精确可视。智慧平台将能源与业务联动,实现设备远程上下电控制,以及空调精确制冷。

“未来,湖南移动将继续推广5G低碳基站应用。”湖南移动相关负责人表示,湖南移动还将同时开展零碳基站研究,加大5G+能源应用推广,以“节能、洁能、赋能”计划为纲要,助力全 社会 实现双碳目标。

图为一体化能源柜内电源监控模块

“双碳”下IDC行业发展趋势

IDC全称为Internet target=_blank>

全球IDC行业建设现状:向着大型化、集约化发展

2010年以来全球数据中心平稳增长,从2017年开始,伴随着大型化、集约化的发展,全球数据中心数量开始缩减。据Gartner统计,截至2020年数据中心共计42.2万个,初步核算2021年全球数据中心数量进一步下降,在41万个左右。

以超大规模运营商的大型数据中心数量角度来看,随着行业集中度的逐步提升,全球超大型数据中心数量总体增长。据Synergy Research Group的最新数据,截至2021年超大规模提供商运营的大型数据中心总数增加到700个左右,较2020年同比增长17.25%。根据Synergy Research Group最新预测,凭借目前已知的314个未来新超大规模数据中心的规划,运营数据中心的安装基数将在三年内突破1000个大关,并在此后继续快速增长。

注:2021年数据截止2021Q3。

全球IDC行业市场规模体量:数据量的爆发增长带动市场规模发展

随着物联网、电子政务、智慧城市等领域的发展以及云计算的发展也将进一步推动IDC领域的发展。依据IDC发布的《数据时代2025》报告,随着5G、物联网的发展,2010-2021年数据呈现爆发式增长状态,2020年全球数据量为60ZB,初步统计2021年达到70ZB;预计2025年全球数据量将达到175ZB。

数据量的爆发式增长使得市场对IDC行业愈发青睐,据中国信通院的数据显示,2017-2021年间,全球IDC市场规模均保持正增长,且年均增速在10%左右。2021年全球IDC行业市场规模为679.3亿美元,同比增长9.9%。

全球IDC行业市场前景预测:即将迎来其新一轮的发展机遇

可以预见,在未来几年,IDC产业将迎来其新一轮的发展机遇。此外,随着网络系统日趋复杂,伴随网络的带宽逐步提高,用于网络维护的成本投资逐步增加,网络管理难度也在日益加大,在这种情况下,以资源外包的网络服务方式逐渐受到企业重视,并取得长足的发展。另外,各国政府加大了对电信宽带的投资力度,促进电信和互联网的融合。根据中国信通院预测,2022年全球ID行业市场收入将达746.5亿美元,增速总体保持平稳,2022-2027年年复合增长率在10%左右,到2027年行业规模将超过1200亿美元。

—— 更多本行业研究分析详见前瞻产业研究院《中国IDC(互联网数据中心)市场前瞻与投资战略规划分析报告》

数据中心规划设计绿色节能措施

数据中心规划设计绿色节能措施如何打造绿色节能数据中心,解决供电和散热问题,让数据中心管理员不必为节能而困扰?要做到绿色环保、技术先进、经济合理、安全适用、确保质量,建议采用以下一些绿色节能措施:1、机房最好建在大楼的二、三层,距离大楼配电最近;2、机房尽量避免设在建筑物用水楼层的下方,造成机房水侵;3、机房选在建筑物的背阴面,以减少太阳光的辐射所产生的热量;4、排烟口设在机房的上方,排废气口设在机房的下方;5、主机房区域的主体结构应采用大开间大跨度的拄网;6、充分利用自然冷源,降低机房精密空调的使用率减少耗电;7、选用高效节能型IT设备;8、增加虚拟服务器的使用,便硬件在不增加能耗的情况下处理更多的工作量;9、在服务器不使用时将其自动转换为节能状态;10、只在设备需要时才开启制冷;11、各别地区可利用自然冷源,为机房设备降温,减少机房空调使用率;12、服务器机柜采用“面对面”或者“背对背”的摆放方式,并且封闭冷通道,降低空调冷源额外消耗;13、电力系统的合理分配;14、高可靠性新型技术的利用;总而言之,建设绿色节能高效的数据中心是未来数据中心建设的重点。 能源紧张是目前也是以后世界性的一个问题,建设绿色节能数据中心的一个主要目的也是为了降低设备能耗节省资源,这也符合整个社会发展的潮流,也是节约运营成本最直接的手段。 降低能耗是企业在每一个业务环节必须关注的问题,也是提高企业成本竞争力的有力保障。 在确保业务稳定运营的同时,降低IT长期运营成本是每一个现代企业的任务。


相关标签: 数据中心的可用性要达到六个九能效比率如何为绿色运营铺平道路数据中心的可持续发展未来

本文地址:http://www.hyyidc.com/article/18871.html

上一篇:数据中心节能的途径能效比率如何帮助减少碳...
下一篇:数据中心能效优化能效比率作为性能的度量标...

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="http://www.hyyidc.com/" target="_blank">好有缘导航网</a>