随着数字化时代的到来,数据中心已成为现代企业运营的关键组成部分。随着数据量的不断增长,数据中心的能耗也成为不容忽视的问题。PUE(能源使用效率)值是衡量数据中心能效的一个重要指标,它反映了数据中心消耗的总能量与用于供电的 IT 设备消耗的能量之比。
PUE 值是一个无量纲的数字,计算公式为:PUE = 总能耗 / IT 能耗。数值越低,表示数据中心效率越高。理想的 PUE 值为 1,这意味着数据中心消耗的总能量完全用于供电 IT 设备。现实中的数据中心通常会有一些能耗用于冷却、照明和安全等设施。
降低 PUE 值对于提高数据中心效率至关重要,以下是一些有效途径:
行业标准对于评估数据中心效率非常重要。以下是一些 PUE 值的行业基准:
通过利用 PUE 值并实施有效的能效措施,企业可以显着提高数据中心的效率。降低 PUE 值不仅可以降低运营成本,还可以减少碳足迹和促进可持续发展。随着数字化浪潮的持续发展,数据中心将继续发挥至关重要的作用,提高数据中心效率对于确保其可持续和高效运营至关重要。
数据中心能耗指标主要是用于评估数据中心的能源利用效率和节能性能。以下是一些常见的数据中心能耗指标:电能利用效率、碳排放量、能效比、能源回收率、负载率。
1、电能利用效率(PUE):PUE是数据中心能耗评价中最常用的指标,它是用来衡量数据中心能源消耗的效率。PUE值的计算公式为:总设施能耗(千瓦时)/IT设备能耗(千瓦时)。理想的PUE值越低,表示数据中心的能源利用效率越高。
2、碳排放量:碳排放量是指数据中心在运行过程中产生的二氧化碳排放量。较低的碳排放量表明数据中心对环境的影响较小。
3、能效比(CUE):CUE是数据中心制冷系统能耗评价的一个重要指标,它是制冷系统总能耗与IT设备能耗之比。CUE值越低,表示制冷系统的能耗越低,效率越高。
4、能源回收率(ER):能源回收率是指数据中心在制冷、散热等过程中回收再利用能源Total Energy的比率。ER值越高,表示数据中心的能源回收效果越好。
5、负载率:负载率是指数据中心的实际运行负载与设计负载之间的比率。较高的负载率可能导致数据中心能耗较高,而较低的负载率可能意味着数据中心能源利用不充分。
工信部、国家机关事务管理局、国家能源局近日联合印发《关于加强绿色数据中心建设的指导意见》(下简称《意见》),明确提出要建立健全绿色数据中心标准评价体系和能源资源监管体系,到2022年,数据中心平均能耗基本达到国际先进水平。 《意见》指出,引导大型和超大型数据中心设计电能使用效率值不高于1.4;力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 基本原则 政策引领、市场主导。 充分发挥市场配置资源的决定性作用,调动各类市场主体的积极性、创造性。 更好发挥政府在规划、政策引导和市场监管中的作用,着力构建有效激励约束机制,激发绿色数据中心建设活力。 改造存量、优化增量。 建立绿色运维管理体系,加快现有数据中心节能挖潜与技术改造,提高资源能源利用效率。 强化绿色设计、采购和施工,全面实现绿色增量。 创新驱动、服务先行。 大力培育市场创新主体,加快建立绿色数据中心服务平台,完善标准和技术服务体系,推动关键技术、服务模式的创新,引导绿色水平提升。 主要目标 建立健全绿色数据中心标准评价体系和能源资源监管体系,打造一批绿色数据中心先进典型,形成一批具有创新性的绿色技术产品、解决方案,培育一批专业第三方绿色服务机构。 到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的电能使用效率值达到1.4以下,高能耗老旧设备基本淘汰,水资源利用效率和清洁能源应用比例大幅提升,废旧电器电子产品得到有效回收利用。 重点任务 (一)提升新建数据中心绿色发展水平 1.强化绿色设计 加强对新建数据中心在IT设备、机架布局、制冷和散热系统、供配电系统以及清洁能源利用系统等方面的绿色化设计指导。 鼓励采用液冷、分布式供电、模块化机房以及虚拟化、云化IT资源等高效系统设计方案,充分考虑动力环境系统与IT设备运行状态的精准适配;鼓励在自有场所建设自然冷源、自有系统余热回收利用或可再生能源发电等清洁能源利用系统;鼓励应用数值模拟技术进行热场仿真分析,验证设计冷量及机房流场特性。 引导大型和超大型数据中心设计电能使用效率值不高于1.4。 2.深化绿色施工和采购 引导数据中心在新建及改造工程建设中实施绿色施工,在保证质量、安全基本要求的同时,最大限度地节约能源资源,减少对环境负面影响,实现节能、节地、节水、节材和环境保护。 严格执行《电器电子产品有害物质限制使用管理办法》和《电子电气产品中限用物质的限量要求》(GB/T)等规范要求,鼓励数据中心使用绿色电力和满足绿色设计产品评价等要求的绿色产品,并逐步建立健全绿色供应链管理制度。 (二)加强在用数据中心绿色运维和改造 1.完善绿色运行维护制度 指导数据中心建立绿色运维管理体系,明确节能、节水、资源综合利用等方面发展目标,制定相应工作计划和考核办法;结合气候环境和自身负载变化、运营成本等因素科学制定运维策略;建立能源资源信息化管控系统,强化对电能使用效率值等绿色指标的设置和管理,并对能源资源消耗进行实时分析和智能化调控,力争实现机械制冷与自然冷源高效协同;在保障安全、可靠、稳定的基础上,确保实际能源资源利用水平不低于设计水平。 2.有序推动节能与绿色化改造 有序推动数据中心开展节能与绿色化改造工程,特别是能源资源利用效率较低的在用老旧数据中心。 加强在设备布局、制冷架构、外围护结构(密封、遮阳、保温等)、供配电方式、单机柜功率密度以及各系统的智能运行策略等方面的技术改造和优化升级。 鼓励对改造工程进行绿色测评。 力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 3.加强废旧电器电子产品处理 加快高耗能设备淘汰,指导数据中心科学制定老旧设备更新方案,建立规范化、可追溯的产品应用档案,并与产品生产企业、有相应资质的回收企业共同建立废旧电器电子产品回收体系。 在满足可靠性要求的前提下,试点梯次利用动力电池作为数据中心削峰填谷的储能电池。 推动产品生产、回收企业加快废旧电器电子产品资源化利用,推行产品源头控制、绿色生产,在产品全生命周期中最大限度提升资源利用效率。 (三)加快绿色技术产品创新推广 1.加快绿色关键和共性技术产品研发创新 鼓励数据中心骨干企业、科研院所、行业组织等加强技术协同创新与合作,构建产学研用、上下游协同的绿色数据中心技术创新体系,推动形成绿色产业集群发展。 重点加快能效水效提升、有毒有害物质使用控制、废弃设备及电池回收利用、信息化管控系统、仿真模拟热管理和可再生能源、分布式供能、微电网利用等领域新技术、新产品的研发与创新,研究制定相关技术产品标准规范。 2.加快先进适用绿色技术产品推广应用 加快绿色数据中心先进适用技术产品推广应用,重点包括:一是高效IT设备,包括液冷服务器、高密度集成IT设备、高转换率电源模块、模块化机房等;二是高效制冷系统,包括热管背板、间接式蒸发冷却、行级空调、自动喷淋等;三是高效供配电系统,包括分布式供能、市电直供、高压直流供电、不间断供电系统ECO模式、模块化UPS等;四是高效辅助系统,包括分布式光伏、高效照明、储能电池管理、能效环境集成监控等。 (四)提升绿色支撑服务能力 1.完善标准体系 充分发挥标准对绿色数据中心建设的支撑作用,促进绿色数据中心提标升级。 建立健全覆盖设计、建设、运维、测评和技术产品等方面的绿色数据中心标准体系,加强标准宣贯,强化标准配套衔接。 加强国际标准话语权,积极推动与国际标准的互信互认。 以相关测评标准为基础,建立自我评价、社会评价和政府引导相结合的绿色数据中心评价机制,探索形成公开透明的评价结果发布渠道。 2.培育第三方服务机构 加快培育具有公益性质的第三方服务机构,鼓励其创新绿色评价及服务模式,向数据中心提供咨询、检测、评价、审计等服务。 鼓励数据中心自主利用第三方服务机构开展绿色评测,并依据评测结果开展有实效的绿色技术改造和运维优化。 依托高等院校、科研院所、第三方服务等机构建立多元化绿色数据中心人才培训体系,强化对绿色数据中心人才的培养。 (五)探索与创新市场推动机制 鼓励数据中心和节能服务公司拓展合同能源管理,研究节能量交易机制,探索绿色数据中心融资租赁等金融服务模式。 鼓励数据中心直接与可再生能源发电企业开展电力交易,购买可再生能源绿色电力证书。 探索建立绿色数据中心技术创新和推广应用的激励机制和融资平台,完善多元化投融资体系。 保障措施 (一)加强组织领导。 工业和信息化部、国家机关事务管理局、国家能源局建立协调机制,强化在政策、标准、行业管理等方面的沟通协作,加强对地方相关工作的指导。 各地工业和信息化、机关事务、能源主管部门要充分认识绿色数据中心建设的重要意义,结合实际制定相关政策措施,充分发挥行业协会、产业联盟等机构的桥梁纽带作用,切实推动绿色数据中心建设。 (二)加强行业监管。 在数据中心重点应用领域和地区,了解既有数据中心绿色发展水平,研究数据中心绿色发展现状。 将重点用能数据中心纳入工业和通信业节能监察范围,督促开展节能与绿色化改造工程。 推动建立数据中心节能降耗承诺、信息依法公示、社会监督和违规惩戒制度。 遴选绿色数据中心优秀典型,定期发布《国家绿色数据中心名单》。 充分发挥公共机构特别是党政机关在绿色数据中心建设的示范引领作用,率先在公共机构组织开展数据中心绿色测评、节能与绿色化改造等工作。 (三)加强政策支持。 充分利用绿色制造、节能减排等现有资金渠道,发挥节能节水、环境保护专用设备所得税优惠政策和绿色信贷、首台(套)重大技术装备保险补偿机制支持各领域绿色数据中心创建工作。 优先给予绿色数据中心直供电、大工业用电、多路市电引入等用电优惠和政策支持。 加大政府采购政策支持力度,引导国家机关、企事业单位优先采购绿色数据中心所提供的机房租赁、云服务、大数据等方面服务。 (四)加强公共服务。 整合行业现有资源,建立集政策宣传、技术交流推广、人才培训、数据分析诊断等服务于一体的国家绿色数据中心公共服务平台。 加强专家库建设和管理,发挥专家在决策建议、理论指导、专业咨询等方面的积极作用。 持续发布《绿色数据中心先进适用技术产品目录》,加快创新成果转化应用和产业化发展。 鼓励相关企事业单位、行业组织积极开展技术产品交流推广活动,鼓励有条件的企业、高校、科研院所针对绿色数据中心关键和共性技术产品建立实验室或者工程中心。 (五)加强国际交流合作。 充分利用现有国际合作交流机制和平台,加强在绿色数据中心技术产品、标准制定、人才培养等方面的交流与合作,举办专业培训、技术和政策研讨会、论坛等活动,打造一批具有国际竞争力的绿色数据中心,形成相关技术产品整体解决方案。 结合“一带一路”倡议等国家重大战略,加快开拓国际市场,推动优势技术和服务走出去。 结语 据悉,在数据中心当前的后期运营,能耗是最大成本,占比超过50%。 降低能耗效率(PUE)值,一直是业界相关部门关心的重点。 工信部在2017年4月发布的《关于加强“十 三五”信息通信业节能减排工作的指导意见》中指出:“十二五”期间新建大型数据中心的能耗效率(PUE)要普遍低于1.5;到2020年,新建大型、超大型数据中心的能耗效率(PUE)值必须达到1.4 以下。 去年3月,工信部首次公布的《全国数据中心应用发展指引》中称:全国超大型数据中心平均PUE(平均电能使用效率)为1.50,大型数据中心平均PUE为1.69。 而根据“十三五规划”,到2020年,新建大型云计算数据中心PUE值将不得高于1.4。 如今,三部门联手针对绿色数据中心建设进一步提出了明确的指导意见。 在这样的大背景下,数据中心运营商如何运用新技术、新架构降低能源降耗,实现数据中心的绿色发展,将成为行业的关注热点,与此同时,节能降耗的大趋势之下,也将带来更多的市场机遇。
PUE不大于1.4在空调技术上是可行的。 制约PUE的,我认为,现阶段主要是冷却技术、空调技术、如何高效排热的问题。 贴一个清华大学江亿院士的演讲:各位来宾、各位专家、各位领导早上好!我好象是第一次参加绿色数据中心的技术大会,因为咱们不是搞计算机这行的,是搞空调,搞建筑节能的,但是好象也慢慢把我们推到这个行业了。 为什么?是因为空调的能耗或者说派热降温的能耗在数据中心里占了比较大的比例。 所以,刚才我听前面这位领导讲数据中心都快到了运行这个程度了,运行主要是能源消耗,能源消耗里就40%或者更多是空调的能耗。 所以,怎么能够降低空调的能耗,一方面给国家的节能减排作贡献,一方面也使我们数据行业产生更好的经济效益,就变成重要的问题了,所以我今天跟大家汇报一下我们在这方面的想法跟体会。 从空调的特点来看,现在随着计算机电子技术的发展,芯片技术都比原来高,主机的发热度越来越大,这样导致空调排热成为这里面大的部分。 后面有一些细的发展状况不说了,就直接看到空调里头。 现在统计大致的结果,对于中小型的数据中心大概PUE值都在2,或者以上,这是空调占了一半或者还多的一个能源消耗。 对大型的IDC机房管理做的比较好的,这时候空调效率相对比较高,但是也能占到40%左右的能耗。 所以,降低数据中心的能耗可能一个是提高服务器的使用效率,没活儿的让它歇着,一方面减少了空气的运行能耗,当然,电源也有可以提高的技术。 空调应该有很大的潜力,空调里面的能耗由什么构成?以前一想说制冷机,压缩机耗电多,实际上压缩机耗电在50%-60%左右,除了压缩机之外,风机也能占在40%或者更多的空调耗能。 现在的情况什么样?大概有这么几块:第一、因为全年制冷,所以绝大部分的数据中心制冷机都开了,这是一年来总的空调的考点状况,可以看出冬天、夏天区别很少,北京、上海、广州冷的地方,热的地方区别很少,应该说冬天天凉了,北京空调越来越大幅度下来,这个变化也不大,所以全年度在这儿用。 然后,有关发热密度非常大,负责把这些热量排走,所以循环风特别大。 并且风吹的还厉害,不行把风量减少,降低送风温度,但是当冷源温度低于屋子里温度的时候,蒸发器就凝水,恨不得天天都出湿,出了湿又怕屋子里太干,所以又有了一些加湿器,这边除湿,那边又得加湿,又得用电,冬天大冷的天还得制冷,这构成了现在数据中心,无论是大的,还是小的空调能源消耗高的主要问题。 有这样问题是坏事儿,反过来又是好事儿。 说明咱们在这儿的潜力特别大,有很大的潜力可以把空调能源消耗降下来。 那么,走哪条道?怎么做?一听说这个空调跟你们建筑节能是一码事,建筑节能都抓围护结构保温,咱们整这个,围护结构,效果非常小,或者无效果,为什么?因为一个IDC密一点的机房一平米大概产热量3-5千万,通过围护结构进入或者出去的热量不会超过折合在占地面积上不会超过50瓦,所以,围护结构的影响很小,就是1%,2%的影响。 当然,通过一些技术,避免外墙直接太阳辐射,比来我这儿热,再拿太阳照我,尽可能的密闭,别让风进来,这是很重要的。 可能有些专家说,风渗进来,有什么不好,如果房子做的不密闭,就是不可控制的室外渗风,是凉快了,但是湿度下降了,夏天热容器不好,而且由于室外的湿度变化大,我数据中心里面希望湿度维持基本稳定不变,给我添加湿、除湿的麻烦事儿。 因此,通过各方面应该把房子做密闭了,对目前来说不是保温的事儿,而且密闭的事儿,密闭最重要。 那么,怎么把热量排出去,马上前几年一些企业想办法说既然冬天不开制冷机,而且外边凉,最简单的通风换气吧,是通过凉风进来,把热量排走,这是有点节能,但是恐怕数据中心这么做不太合适,为什么?室外的灰尘赃,机器得干净,湿度室外是变化的,夏天北京的一立方米空气有2克的水汽,另外中国是烧煤的国家,70%的化石能源都来自于煤,燃煤就出硫,硫化物到室内,就会导致表面发生腐蚀现象,所以这是不行,您的冷却系统是为主机服务的,要是有损于主机,无论是灰尘还是硫化物,还有湿度都会影响主机的寿命,这是绝对不能有的。 因此,说就想法通过过滤消除灰尘,想法加湿、除湿改变湿度,想法脱硫,当把这些东西都架上,就发现投入的成本和能源消耗就不低了,而且维护管理的工作量立刻上去了,那么这么大的数据中心要求高可靠性运行,于是这事儿有点别扭了。 还有通过热交换把凉气取回来,这个思路是挺好,对于一些小规模的计算中心,像一个大楼里的数据中心有时候还可以,但是对于大规模的机房是无法实现的,是因为直接走风道这么大发热量得有多大的风量直接室外来回换气,风道的体积在那儿摆着不合适,然后维护工作量非常大,尤其还是赃。 所以,室外的低温必须想法用上,是通过室外的新风,怎么通过某种能量凉下来,最后把机器里面的热量带走。 所以,整个的数据中心的空调跟咱们楼里的空调概念不一样,它的核心事儿就是怎么把芯片那儿出来的热量通过某种介质传热,传完之后,几次交换,最后导到室外去就这么一个任务。 所以,这时候根本目标就是让芯片的温度不要超过标准温度,然后把这个温度排出来。 这样芯片表面温度和冷源温度的差跟热阻成正比,就是怎么把这个等效热阻降低了核心的事儿就变成了这么一个问题。 温差小就是如果我芯片温度不许超过40度,如果我的温差是20度,只要室外温度低于20度,我就不用开冷空气就可以把热量排走,所以就要减少等效热阻。 那么,这个等效热阻由什么构成?发现就像咱们的一个网络,三个电阻,三个等效热阻,哪三个过程?一个就是芯片跟空气之间的换热环节,这个差越大,温差就越大,比如我可以取平均温度,等效热阻就是这块面积除以热量,第一个环节就是容器跟芯片表面换热的环节。 第二个环节,比如说我有一个精密空调跟水,或者室外的冷水换热,这冷水跟容器之间的换热环节,我们叫输送与换热热阻。 第三个环节,循环介质与冷源之间换气,叫做冷源换热热阻。 比如说室内温度到20度,实际只欠10度的温差,这时候冷空机提供的活儿就是这10度的温差。 所以,把热阻减少了,无论是用自然冷源还是开冷风机都可以降低功耗。 因此,核心的问题就是把这三个环节的热阻降下来。 所以,就三个关键,第一、降低热量采集过程的热阻,同时不增加风机电耗。 第二、降低热量传输过程中的热阻,同时不增加传输电耗。 第三、找到温度更低的自然冷源,但是别破坏环境。 下面逐条看,采集过程中的热阻,实际的采集热阻,除了空气跟芯片换热之外,还有相当大的消耗是机房里面冷风跟热风的互相搀混,制冷机就是把冷风热的温度分开,分出冷热风,这个屋子里面又没地儿跑,又搀混起来了,所以避免冷风热机的搀混。 比如说要是给定芯片温度,当搀混小的时候,回风温度可以更紧的接近芯片,如果我恒定芯片温度回风少的时候,这样就可以更大程度的利用这个资源。 有一些实测的数据,是在大的IC机房里实测的,大家可以看出来,比如冷通道进来,从机房送出来应该这儿是16点几度,到这儿怎么就能30多度呢?它这儿上面还有一块挡,这30多度是哪儿来的?就是因为部分的过了服务器之后,服务器里面有空档,空档的热风又渗回来了,热风跟这些东西搀混到这些地儿,能到35度。 为了保证上面服务器的这些效果,于是就得降低送风温度,为了保证上面差不多,结果把这个温差就拉大了,导致整个的冷交热的增加。 所以,这儿看着排风有40度的,这些排风35、36度,总的到空调下一看,派风温度才28度,怎么降下来了?就是凉风过去跟热风搀和起来了,这样芯片大概在45度以上。 如果避免了这些混合之后,就可以把回风温度很容易提高到35度,输送温度也可以提高到20度,保持芯片温度最高的温度不变,于是这温差小多了,采集的等效热阻下来了。 当然,具体计算可以拿出温度差仔细算出来知道什么毛病,总的指导思想是这样的。 所以,在机柜顶部架一些挡板,这样能够有点改善。 但是由于金桂内刀片式服务器之间不可避免存在气流短路现象,因此,仍存在短路现象,使冷气流通道内有旁通过来的热气流,热气流通道内也会有旁通过来的冷气流。 还有就是直接把换热器安装在机柜内,在机柜内或者机柜旁制备冷空气,可以有效减少掺混这样现象,降低热量采集过程温差,可以减少风量、丰足,大幅降低风机电耗。 所以,这是很重要一条,但是不能让柜子出水。 这样有一种做法,就是采用背板冷却,将空调系统热换器安装在装载IT设备的机柜上,根据机房内各个不同的机柜实现按需供冷,避免局部热。 分布式制冷系统使空调系统的吸热端更接近热源。 这是第一个减少采热采集过程中的热阻。 第二减少输配过程中的热阻,实际这个环节比如一条空调器,是空气跟水的换热,那么空气温度是这样的,水温度是这样的,就会看到有时候往往都不是平衡的,是带三角形性质的,只要带三角形性质,就浪费一部分温差。 所以,想法调整两边的流量,使得两边的温差接近,可以有效的降低数配系统的等效热阻,或者减少等效温差。 有时候说是由于我用背板,或者机柜里的换热器那里面不是走水,无论是走二氧化碳,还是走氟利昂,这是机柜内送派风温度,这是热管温度,这是室外侧进出口温度,是这么一个过程,(如图所示),还有一种换热器,每排的热管单独连接,这时候室内室外的温度就变小多了,尽管换热面积一样,它就强多了。 当然,这样会导致热管布置起来要复杂,但是在二者之间,总有一个好的权衡去减少输送过程的热阻或者说降低它的温差。 第三条就是到底我们用什么样的室外的自然冷源和怎么把这自然冷源跟我的机械制冷有机的统一结合起来?因为有时候天热还得开冷机,这二者之间能不能实现一个比较自然的转换?我们现在看看到底把这个热量往哪儿排,实际在空气里面并不是一个空气的问题,咱们有三种温度,一种就是空气的干球温度,像今天大概室外27、28度,是天气预报说的温度。 直接换热就是干球温度。 但是,如果我对外面拿冷却塔喷水,就是湿球温度,大概23、24度。 比如到五一湿球温度比干球温度低的多,所以通过冷却塔就可以降低湿球温度,还可不可以再降低,还有一种就是间接蒸发冷却,西部地区很多地方用它做空调,它可以把试问降到室外的露点温度,像现在这个时候,北京的露点温度低于20度了。 这是拿北京气侯为例,蓝的是全球的干球温度,红的是湿球温度,绿的是全年的露点温度的变化。 所以,我要是安全露点温度考虑问题,全年北京市5876小时低于20度的时间占全年的67%,如果热阻做好了,就只有10%几的时间,做不好,15度的时候,露点温度也能占到77%的时间。 所以这个比例还是挺大的。 那么,怎么跟制冷机统一起来,实现无缝连接,自然过渡呢?这是一个方案,包括几部分,先说柜子,刚才我讲背板式的换热,现在是上下的换热,屋子里的空气26度,从这儿进入机柜,两组换热器,一组一个管给19度,一个管给16度,经过两种换热,从26度到20度,经过发热的服务器,达到32度,然后经过两组换热器降温,又变成26度,再回来,维持屋子里的温度是26度,不是靠屋子里别地儿装的孔,而是靠这个机柜,屋子里的温度是由机柜决定的,由于屋子里的温度是16度,露点温度只有12、13度,我把物资弄密闭了,人也不怎么进去,里面没有湿的事儿。 然后,这四组换散热器,拿热管引出来,这四组是16、19、22、25度,然后这个水就是跟这热管换热,把热量都带到水里去,所以从15恩度,涨到24度。 然后,24度,如果室外是两管,冷空气不用开,直接经过间接冷却塔就能够把水温降大15度,如果温度再低,只要朝这风机跟这儿的转换装置,能够维持我进入到换热器全年只有15度。 当室外温度高到30度,露点温度到18度,这时候冷却塔还能起一点作用,能起1/3的冷量还从这儿出,不足了再拿冷风机降一部分。 所以,这个冷风机是连续的就能够使得冷风气从10%的复合逐渐加到5%的复合。 冷却塔只要露点温度在20度以下,总能起点作用。 这样一个系统,这儿计算了一下,拿北京的气象条件可以看出来,如果是这么一个机房,跟一般传统的机房来比,咱们就直接取它一年用电量是百分之百,那么即使没有自然冷源,就是拿制冷机做,但是因为我减少了掺混,减少了数配能耗,能够节能40%几。 如果用最好的间接冷却方式,用电量只有23%,能够节省70%的电量,所以有巨大的节能潜力。 按照这个思路,我们有一些机房的改造实例,这是清华大学图书馆的一个全校支持整个学老师、同学做研究的数据中心。 它原来就是在这个屋子里头摆了一堆空调器,机器多了,热量还大,所以追加了好几台空调器。 用了跟刚才这个图差不多的方式,结果总机柜里面的风机降到7千瓦,这时候能效比从2.7涨到8.2,就只用原来1/3的能耗。 最热的时候,冷机都得开了,即使如此,能耗还能差一半。 所以,全年下来总的能耗消耗能够降低60%左右,这就是一个实际案例,这个还有一些遗憾的地方,就是做得不彻底,做得彻底了,还能够进一步降低消耗量。 总结一下,就是数据中心排热的空调实际上有巨大的节能潜力和节能空间。 它的核心是机房的气流组织怎么采集热量合理的空调器,其中几个基本原则,一个就是尽可能避免不同的温度的气流掺混,我们现在对机柜进行空调制冷的目的,不是对机房进行空调制冷,所以尽可能把冷源越贴近发热体越好,充分的利用自然冷源,有各种不同的法子获得不同温度的,然后想法介绍能耗,这样给出去的这些思路,今天讲的某一两个做法,实际在这个思路下发挥创新的精神还可以创造出好些各种各样的方案,真正把数据中心排热的空调能耗降下来。 我们觉得完全按照目前大多数方式来比较,有可能把机房的空调节能达到70%以上,相当以机房用电量降低30%以上。 刚才我听领导讲,国外发达国家比,机房的PUE到1.2,1.3那跟它机房的位置有关系。 在不同的气侯条件下,实际上抓好这几条,以自然冷源为主,适当的加一点机械制冷的补充,解决一年里面20%,25%的节能,完全可以把我们国家不同地方数据中心的空调能耗都有效的降下来,应该做的比发达国家,比美国还好,谢谢大家。
该意思是评价数据中心能源效率的指标。 PUE是评价数据中心能源效率的重要指标,数值越接近1,表明数据中心的能效水平越好,该指标通过计算数据中心的总能耗与IT设备能耗的比值,来评估数据中心在能源利用方面的效率。 为了降低PUE值,需要采取一系列措施,如优化IT设备的设计和配置、提高数据中心的冷却效率、采用高效的供电设备等,此外,合理规划数据中心的布局和结构,减少不必要的能源消耗,也可以帮助降低PUE值。 总之,PUE值是衡量数据中心能源效率的关键指标,通过降低PUE值,可以提高数据中心的能效水平,减少对环境的影响,同时也能够降低运营成本,为企业和社会带来更多的经济效益。
(1)优化IT功率由于IT系统最终需要供电,数据中心管理人员需要尝试降低所需IT设备的功率(称为负载有功功率)。 60%的有效负载功率由服务器消耗,因此采取以下行动降低所需的能耗至关重要:•清理工作负载,并消除一切不必要的负载。 •合并虚拟机。 •虚拟化更多的工作负载。 •继续关闭那些供电但不起作用的服务器。 •用较新的服务器替换旧服务器。 (2)优化数据中心空间在服务器虚拟化出现之前所构建的数据中心可能被过度构建,以满足当时的设备需求,因此如今可以进一步减少IT设备所需的空间和更少的IT功率。 在构建新的数据中心时,将数据中心分解为单个模块的模块化设计是值得考虑的,这些模块可以作为更灵活有机的数据中心设计的一部分,并且不断更新升级。 (3)优化数据中心冷却为了实现最低的能耗,数据中心管理人员应确保采用基本的数据中心冷却最佳实践:•安装节能器-节能器在寒冷地区可显著降低PUE。 例如,在北美的大部分地区,40%至90%的冷却可以通过能器节使用从外部进来的空气。 •包含设备和热量-隔离结构可容纳数据中心设备产生的最多热量,将热量从数据中心散发出去,或加热建筑物的其他部分空间。 •优化空调系统-优化空调系统有两种主要方式,一是使用替代的冷却源(例如空气优化器)定期关闭空调系统,二是或者持续改变电源频率,这有助于减少总的能量消耗。 (4)提高数据中心电源和冷却的效率过时的电力输送系统,包括不间断电源(UPS),配电单元(PDU)和变压器,可能对PUE值产生负面影响。 因此,可以评估当前状况,未来需求和现代替代方案。 虽然这需要一定的时间和投资,但通常在PUE值改进方面和节省成本方面会带来良好的回报。 (5)利用DCIM工具可以通过使用数据中心基础设施管理(DCIM)软件实现对能源效率的进一步改进。 DCIM软件在物理IT设备的操作需求和物理设施(建筑物和环境控制)之间提供必要的联系。
作为中国服务用户最多的互联网企业之一,腾讯公司对中国互联网络的飞速发展有着更直观的感受。 预计至2010年,腾讯公司的服务器数量会超过10万台,而且分布在全国多个地区。 届时,腾讯的IM(即时通信)同时在线用户数也将接近1亿,游戏平台在线用户数会达到千万级。 随着业务量的加速增长、数据中心服务器规模的持续扩大,巨额的运维费用相伴而生。 在全球环保意识逐渐增强的同时,绿色节能理念在IT业界初露锋芒。 腾讯公司管理工程部总经理别洪涛负责数据中心、网络与系统基础架构的设计、建设与运维管理,他对加强绿色节能意识、推动互联网产业实现绿色节能有着自己独到的看法。 踏上“绿色”之路 “当服务器保有量超过一定规模后,一个大型数据中心要承载大量的服务器,存储数据容量达到一定规模后,节能、敏捷、自动化管理就成为我们特别关注的焦点,我们需要用下一代数据中心的设计理念进行全新的规划和设计。 ”别洪涛开门见山地告诉记者,就是在规划阶段,通过对数据进行分析,腾讯意识到绿色节能将成为业界未来关注的一个重点。 据腾讯年报显示,至2006年年底,腾讯QQ用户数就已经达到5.805亿人,成为全球使用人数最多的IM工具。 而就是这一年,绿色节能话题在腾讯内部浮出水面。 据别洪涛介绍,腾讯随后便在数据中心、服务器等方面成立了专业团队,持续跟踪和研究业界相关技术的进展。 同时,腾讯的相关实验室相继建起,对数据中心气流与散热、服务器能耗等众多项目进行实验和研究,并将研究心得同运营合作商进行沟通,逐渐提升了整体数据中心的使用效率,绿色节能初露端倪。 在IT业界,PUE(Power Usage Effectiveness)是国际上通用的衡量整个数据中心能效的一个指标,它是整个数据中心设施耗电量除以IT设备耗电量,得出的一个系数,代表了数据中心节能的效率。 据别洪涛介绍,在当前国内大多数数据中心,服务器每耗一度电,就有一度多的电消耗在空调制冷、照明及一些辅助设施用电上,而真正用于IT设备上的电力效率则较低。 “根据早期数据中心的设计,PUE参数通常会超过2.0,好一些的可以达到1.8左右,目前国际领先的数据中心的PUE可以达到1.2左右。 如果对数据中心的布局设计做一些考虑,整个数据中心的能效比就会降低很多。 据我们内部测算,PUE每下降10%,大型数据中心节省的电费和耗电量将会是一个非常可观的数字。 对于下一代数据中心,我们的目标是让PUE从2.0以上下降到1.5以下。 ”别洪涛如是说。 “绿色路”如何走 降低PUE是一个系统工程,其中数据中心基础建设至关重要。 别洪涛向记者介绍,下一代数据中心会更加注重前期选址和设计规划,充分利用自然冷却的方式来降低能耗,例如选择在气候较寒冷的地区建设数据中心,通过合理的内部布局和气流设计,来提升散热效率等。 腾讯公司未来还希望与运营合作商共同探讨,如何将数据中心产生的热能进行循环利用,构造真正绿色、节能、环保的数据中心。 绿色节能技术的进步令人欣喜,然而别洪涛也坦言,当前的业务架构和应用仍有上升空间。 “针对这个问题,我们将通过业务应用架构和软件方面的优化、提升,来最大化服务器资源的使用效率,最终达到降低能耗的目的”。 别洪涛认为,立体节能将成为未来的趋势。 “除了在数据中心基础建设上加强与运营商合作、降低PUE外,公司在服务器软、硬件优化方面也进展较快。 腾讯公司有专门的团队进行服务器研究分析测试,并与英特尔等企业组建联合实验室,探索服务器节能的极限。 这方面如果做得好的话,可以在能耗上节省50%。 ”而这其中重要的方向就是服务器“定制化”,即在服务器中去掉所有非必要的部件、选用低能耗部件,同时通过控制部件能耗等方式来综合降低服务器自身的能源消耗。 另外,互联网服务应用策略也是服务器节能的一个重要突破口。 别洪涛介绍说,不同的互联网服务,其使用频度、峰值等在一天中都会不断变化,互联网存储数据的活跃度有其特点。 根据这些特性来调整服务策略与应用架构,在某项服务或数据处于非活跃期间时,使服务器处于节能状态,这实际上是一种动态节能的策略。 艰巨的“绿色”任务 下一代数据中心理念在国外已经开始应用,但在国内实施起来却有一定难度,别洪涛表示:“绿色节能新理念需要对数据中心重新进行规划和设计,这样一来,对用地、用电和运营商资源的需求较大,对投资要求比较高,而当前产业环境在各个方面的配套支撑还不足够。 ” 在别洪涛看来,绿色数据中心是一个立体化、系统性的东西,如果产业环境能够在规划、设计、建设以及设备提供等方面相应地做一些改变,整个数据中心在绿色节能上将会有更大的提升。 根据互联网信息中心(CNNIC)今年7月发布的报告,中国互联网网民总数已经突破2.53亿,超过美国成为世界第一互联网大国。 这固然令人欣喜,但别洪涛也表示了担忧: “美国基础设施条件较好、电力资源较为丰富,但在当今中国能源紧缺、IDC基础设施相对落后于用户服务需求的大背景下,我们更需要思考如何支撑海量服务。 ” 别洪涛表示,就当前整个中国用于互联网服务的IDC而言,其设计理念和方法都不是从支撑海量服务角度来设计的,因此就需要下一代数据中心理念的贯彻和执行,来推动支撑海量服务的能力。 而这方面不仅仅是数据中心层面单独的事,还包括应用、系统、服务器、网络等诸多因素,需要形成一个有机整体来实现绿色节能。 纵观中国互联网企业,数据中心目前仍处于比较粗放的阶段: 小公司较多,其数据中心规模较小,能效比较低,由于散布在各地,建设水平参差不齐。 别洪涛认为,与另一个互联网大国――美国相比,我国在数据中心基础架构方面相对落后,数据中心设计理念比较老旧,很多数据中心是由工业楼宇改造而来,自身存在先天不足。 “因此,这就需要一些更专业的团队,在未来能够和IT企业一起推动产业环境的绿色节能。 当然,产业环境也比较重要,因为绿色节能涉及到的不仅仅是数据中心,还需要电力、土地、网络等资源的配合。 ”别洪涛说。 对于IT企业来说,实施绿色节能措施一方面可以大大降低运营成本,提高企业的整体竞争力,另一方面也显示着一个企业的社会责任。 别洪涛说: “企业社会责任是腾讯企业文化当中的一项重要内容,作为一个IT企业,我们没有直接对自然环境造成破坏,但我们也意识到庞大的耗电量会间接对环境造成影响。 因此我们有意愿、也有能力通过减少电能的消耗,来减少温室气体的排放,为改善整个自然环境尽一份力量。 ”另外,在中国资源紧缺的情况下,IT企业必须要借助绿色节能措施,才能够在有限的资源下满足业务发展的需求。
世界能源委员会1995年对能源效率的定义为:减少提供同等能源服务的能源投入。 对于能耗居高不下的数据中心,研究提高能源效率具有深远的社会效益和经济效益。 除了能源效率之外,数据中心还有多项其他性能指标,按照国际标准组织ISO的定义统称为关键性能指标,或称为关键绩效指标,研究这些指标对于数据中心同样具有十分重要的意义。 在已经颁布的数据中心性能指标中最常见的是电能使用效率PUE。 在我国,PUE不但是数据中心研究、设计、设备制造、建设和运维人员最为熟悉的数据中心能源效率指标,也是政府评价数据中心工程性能的主要指标。 除了PUE之外,2007年以后还出台了多项性能指标,虽然知名度远不及PUE,但是在评定数据中心的性能方面也有一定的参考价值,值得关注和研究。 PUE在国际上一直是众说纷纭、莫衷一是的一项指标,2015年ASHRAE公开宣布,ASHRAE标准今后不再采用PUE这一指标,并于2016年下半年颁布了ASHRAE 90.4标准,提出了新的能源效率;绿色网格组织(TGG)也相继推出了新的能源性能指标。 对PUE和数据中心性能指标的讨论一直是国际数据中心界的热门议题。 鉴于性能指标对于数据中心的重要性、国内与国际在这方面存在的差距,以及在采用PUE指标过程中存在的问题,有必要对数据中心的各项性能指标,尤其是对PUE进行深入地研究和讨论。 1.性能指标 ISO给出的关键性能指标的定义为:表示资源使用效率值或是给定系统的效率。 数据中心的性能指标从2007年开始受到了世界各国的高度重视,相继推出了数十个性能指标。 2015年之后,数据中心性能指标出现了较大变化,一系列新的性能指标相继被推出,再度引发了国际数据中心界对数据中心的性能指标,尤其是对能源效率的关注,并展开了广泛的讨论。 2.PUE 2.1PUE和衍生效率的定义和计算方法 2.1.1电能使用效率PUE TGG和ASHRAE给出的PUE的定义相同:数据中心总能耗Et与IT设备能耗之比。 GB/T.3—2016给出的EEUE的定义为:数据中心总电能消耗与信息设备电能消耗之间的比值。 其定义与PUE相同,不同的是把国际上通用的PUE(powerusage effectiveness)改成了EEUE(electricenergy usage effectiveness)。 国内IT界和暖通空调界不少专业人士对于这一变更提出了不同的看法,根据Malone等人最初对PUE的定义,Et应为市电公用电表所测量的设备总功率,这里的Et就是通常所说的数据中心总的设备耗电量,与GB/T.3—2016所规定的Et应为采用电能计量仪表测量的数据中心总电能消耗的说法相同。 笔者曾向ASHRAE有关权威人士咨询过,他们认为如果要将“power”用“electricenergy”来替代,则采用“electricenergy consumption”(耗电量)更准确。 显然这一变更不利于国际交流。 虽然这只是一个英文缩写词的变更,但因为涉及到专业术语,值得商榷。 ISO给出的PUE的定义略有不同:计算、测量和评估在同一时期数据中心总能耗与IT设备能耗之比。 2.1.2部分电能使用效率pPUE TGG和ASHRAE给出的pPUE的定义相同:某区间内数据中心总能耗与该区间内IT设备能耗之比。 区间(zone)或范围( boundary)可以是实体,如集装箱、房间、模块或建筑物,也可以是逻辑上的边界,如设备,或对数据中心有意义的边界。 ISO给出的pPUE的定义有所不同:某子系统内数据中心总能耗与IT设备总能耗之比。 这里的“子系统”是指数据中心中某一部分耗能的基础设施组件,而且其能源效率是需要统计的,目前数据中心中典型的子系统是配电系统、网络设备和供冷系统。 2.1.3设计电能使用效率dPUE ASHRAE之所以在其标准中去除了PUE指标,其中一个主要原因是ASHRAE认为PUE不适合在数据中心设计阶段使用。 为此ISO给出了设计电能使用效率dPUE,其定义为:由数据中心设计目标确定的预期PUE。 数据中心的能源效率可以根据以下条件在设计阶段加以预测:1)用户增长情况和期望值;2)能耗增加或减少的时间表。 dPUE表示由设计人员定义的以最佳运行模式为基础的能耗目标,应考虑到由于数据中心所处地理位置不同而导致的气象参数(室外干球温度和湿度)的变化。 2.1.4期间电能使用效率iPUE ISO给出的期间电能使用效率iPUE的定义为:在指定时间测得的PUE,非全年值。 2.1.5电能使用效率实测值EEUE-R GB/T.3—2016给出的EEUE-R的定义为:根据数据中心各组成部分电能消耗测量值直接得出的数据中心电能使用效率。 使用EEUE-R时应采用EEUE-Ra方式标明,其中a用以表明EEUE-R的覆盖时间周期,可以是年、月、周。 2.1.6电能使用效率修正值EEUE-X GB/T.3—2016给出的EEUE-X的定义为:考虑采用的制冷技术、负荷使用率、数据中心等级、所处地域气候环境不同产生的差异,而用于调整电能使用率实测值以补偿其系统差异的数值。 2.1.7采用不同能源的PUE计算方法 数据中心通常采用的能源为电力,当采用其他能源时,计算PUE时需要采用能源转换系数加以修正。 不同能源的转换系数修正是评估数据中心的一次能源使用量或燃料消耗量的一种方法,其目的是确保数据中心购买的不同形式的能源(如电、天然气、冷水)可以进行公平地比较。 例如,如果一个数据中心购买当地公用事业公司提供的冷水,而另一个数据中心采用由电力生产的冷水,这就需要有一个系数能使得所使用的能源在相同的单位下进行比较,这个系数被称为能源转换系数,它是一个用来反映数据中心总的燃料消耗的系数。 当数据中心除采用市电外,还使用一部分其他能源时,就需要对这种能源进行修正。 2.1.8PUE和EEUE计算方法的比较 如果仅从定义来看,PUE和EEUE的计算方法十分简单,且完全相同。 但是当考虑到计算条件的不同,需要对电能使用效率进行修正时,2种效率的计算方法则有所不同。 1)PUE已考虑到使用不同能源时的影响,并给出了修正值和计算方法;GB/T.3—2016未包括可再生能源利用率,按照计划这一部分将在GB/T.4《可再生能源利用率》中说明。 2)PUE还有若干衍生能源效率指标可供参考,其中ISO提出的dPUE弥补了传统PUE的不足;EEUE则有类似于iPUE的指标EEUE-Ra。 3)EEUE分级(见表1)与PUE分级(见表2)不同。 4)EEUE同时考虑了安全等级、所处气候环境、空调制冷形式和IT设备负荷使用率的影响。 ASHRAE最初给出了19个气候区的PUE最大限值,由于PUE已从ASHRAE标准中去除,所以目前的PUE未考虑气候的影响;ISO在计算dPUE时,要求考虑气候的影响,但是如何考虑未加说明;PUE也未考虑空调制冷形式和负荷使用率的影响,其中IT设备负荷率的影响较大,应加以考虑。 2.2.PUE和EEUE的测量位置和测量方法 2.2.1PUE的测量位置和测量方法 根据IT设备测点位置的不同,PUE被分成3个类别,即PUE1初级(提供能源性能数据的基本评价)、PUE2中级(提供能源性能数据的中级评价)、PUE3高级(提供能源性能数据的高级评价)。 PUE1初级:在UPS设备输出端测量IT负载,可以通过UPS前面板、UPS输出的电能表以及公共UPS输出总线的单一电表(对于多个UPS模块而言)读取。 在数据中心供电、散热、调节温度的电气和制冷设备的供电电网入口处测量进入数据中心的总能量。 基本监控要求每月至少采集一次电能数据,测量过程中通常需要一些人工参与。 PUE2中级:通常在数据中心配电单元前面板或配电单元变压器二次侧的电能表读取,也可以进行单独的支路测量。 从数据中心的电网入口处测量总能量,按照中等标准的检测要求进行能耗测量,要求每天至少采集一次电能数据。 与初级相比,人工参与较少,以电子形式采集数据为主,可以实时记录数据,预判未来的趋势走向。 PUE3高级:通过监控带电能表的机架配电单元(即机架式电源插座)或IT设备,测量数据中心每台IT设备的负载(应该扣除非IT负载)。 在数据中心供电的电网入口处测量总能量,按照高标准的检测要求进行能耗测量,要求至少每隔15min采集一次电能数据。 在采集和记录数据时不应该有人工参与,通过自动化系统实时采集数据,并支持数据的广泛存储和趋势分析。 所面临的挑战是以简单的方式采集数据,满足各种要求,最终获取数据中心的各种能量数据。 对于初级和中级测量流程,建议在一天的相同时间段测量,数据中心的负载尽量与上次测量时保持一致,进行每周对比时,测量时间应保持不变(例如每周周三)。 2.2.2EEUE的测量位置和测量方法 1)Et测量位置在变压器低压侧,即A点; 2)当PDU无隔离变压器时,EIT测量位置在UPS输出端,即B点; 3)当PDU带隔离变压器时,EIT测量位置在PDU输出端,即C点; 4)大型数据中心宜对各主要系统的耗电量分别计量,即E1,E2,E3点; 5)柴油发电机馈电回路的电能应计入Et,即A1点; 6)当采用机柜风扇辅助降温时,EIT测量位置应为IT负载供电回路,即D点; 7)当EIT测量位置为UPS输出端供电回路,且UPS负载还包括UPS供电制冷、泵时,制冷、泵的能耗应从EIT中扣除,即扣除B1和B2点测得的电量。 2.2.3PUE和EEUE的测量位置和测量方法的差异 1)PUE的Et测量位置在电网输入端、变电站之前。 而GB/T.3—2016规定EEUE的Et测量位置在变压器低压侧。 数据中心的建设有2种模式:①数据中心建筑单独设置,变电站自用,大型和超大型数据中心一般采用这种模式;②数据中心置于建筑物的某一部分,变电站共用,一般为小型或中型数据中心。 由于供电局的收费都包括了变压器的损失,所以为了准确计算EEUE,对于前一种模式,Et测量位置应该在变压器的高压侧。 2)按照2.2.2节第6条,在计算EIT时,应减去机柜风机的能耗。 应该指出的是,机柜风机不是辅助降温设备,起到降温作用的是来自空调设备的冷空气,降温的设备为空调换热器,机柜风机只是起到辅助传输冷风的作用,因此机柜风机不应作为辅助降温设备而计算其能耗。 在GB/T.3征求意见时就有人提出:机柜风机的能耗很难测量,所以在实际工程中,计算PUE时,EIT均不会减去机柜风机的能耗。 在美国,计算PUE时,机柜风机的能耗包括在EIT中。 3)PUE的测点明显多于GB/T.3—2016规定的EEUE的测点。 2.3.PUE存在的问题 1)最近两年国内外对以往所宣传的PUE水平进行了澄清。 我国PUE的真实水平也缺乏权威调查结果。 GB/T.3—2016根据国内实际状况,将一级节能型数据中心的EEUE放宽到1.0~1.6,其上限已经超过了国家有关部委提出的绿色数据中心PUE应低于1.5的要求,而二级比较节能型数据中心的EEUE规定为1.6~1.8,应该说这样的规定比较符合国情。 2)数据中心总能耗Et的测量位置直接影响到PUE的大小,因此应根据数据中心建筑物市电变压器所承担的荷载组成来决定其测量位置。 3)应考虑不同负荷率的影响。 当负荷率低于30%时,不间断电源UPS的效率会急剧下降,PUE值相应上升。 对于租赁式数据中心,由于用户的进入很难一步到位,所以数据中心开始运行后,在最初的一段时间内负荷率会较低,如果采用设计PUE,也就是满负荷时的PUE来评价或验收数据中心是不合理的。 4)数据中心的PUE低并非说明其碳排放也低。 完全采用市电的数据中心与部分采用可再生能源(太阳能发电、风电等),以及以燃气冷热电三联供系统作为能源的数据中心相比,显然碳排放指标更高。 数据中心的碳排放问题已经引起国际上广泛地关注,碳使用效率CUE已经成为数据中心重要的关键性能指标,国内对此的关注度还有待加强。 5)GB/T.3—2016规定,在计算EIT时,应减去机柜风机的耗能。 关于机柜风机的能耗是否应属于IT设备的能耗,目前国内外有不同的看法,其中主流观点是服务器风机的能耗应属于IT设备的能耗,其原因有二:一是服务器风机是用户提供的IT设备中的一个组成部分,自然属于IT设备;二是由于目前服务器所采用的风机基本上均为无刷直流电动机驱动的风机(即所谓EC电机),风机的风量和功率随负荷变化而改变,因此很难测量风机的能耗。 由于数据中心风机的设置对PUE的大小影响很大,需要认真分析。 从实际使用和节能的角度出发,有人提出将服务器中的风机取消,而由空调风机取代。 由于大风机的效率明显高于小风机,且初投资也可以减少,因此这种替代方法被认为是一个好主意,不过这是一个值得深入研究的课题。 6)国内相关标准有待进一步完善。 GB/T.3—2016《数据中心资源利用第3部分:电能能效要求和测量方法》的发布,极大地弥补了国内标准在数据中心电能能效方面的不足;同时,GB/T.3—2016标准颁布后,也引起了国内学术界和工程界的热议。 作为一个推荐性的国家标准如何与已经颁布执行的强制性行业标准YD 5193—2014《互联网数据中心(IDC)工程设计规范》相互协调?在标准更新或升级时,包括内容相似的国际标准ISOIEC -2-2016在内的国外相关标准中有哪些内容值得借鉴和参考?标准在升级为强制性国家标准之前相关机构能否组织就其内容进行广泛的学术讨论?都是值得考虑的重要课题。 ASHRAE在发布ASHRAE90.4标准时就说明,数据中心的标准建立在可持续发展的基础上,随着科学技术的高速发展,标准也需要不断更新和创新。 7)PUE的讨论已经相当多,事实上作为大数据中心的投资方和运营方,更关心的还是数据中心的运行费用,尤其是电费和水费。 目前在数据中心关键性能指标中尚缺乏一个经济性指标,使得数据中心,尤其是大型数据中心和超大型数据中心的经济性无法体现。 2.4.PUE的比较 不同数据中心的PUE值不应直接进行比较,但是条件相似的数据中心可以从其他数据中心所提供的测量方法、测试结果,以及数据特性的差异中获益。 为了使PUE比较结果更加公平,应全面考虑数据中心设备的使用时间、地理位置、恢复能力、服务器可用性、基础设施规模等。 3.其他性能指标 3.1.ASHRAE90.4 ASHRAE90.4-2016提出了2个新的能源效率指标,即暖通空调负载系数MLC和供电损失系数ELC。 但这2个指标能否为国际IT界接受,还需待以时日。 3.1.1暖通空调负载系数MLC ASHRAE对MLC的定义为:暖通空调设备(包括制冷、空调、风机、水泵和冷却相关的所有设备)年总耗电量与IT设备年耗电量之比。 3.1.2供电损失系数ELC ASHRAE对ELC的定义为:所有的供电设备(包括UPS、变压器、电源分配单元、布线系统等)的总损失。 3.2.TGG白皮书68号 2016年,TGG在白皮书68号中提出了3个新的能源效率指标,即PUE比(PUEr)、IT设备热一致性(ITTC)和IT设备热容错性(ITTR),统称为绩效指标(PI)。 这些指标与PUE相比,不但定义不容易理解,计算也十分困难,能否被IT界接受,还有待时间的考验。 3.2.1PUE比 TGG对PUEr的定义为:预期的PUE(按TGG的PUE等级选择)与实测PUE之比。 3.2.2IT设备热一致性ITTC TGG对ITTC的定义为:IT设备在ASHRAE推荐的环境参数内运行的比例。 服务器的进风温度一般是按ASHRAE规定的18~27℃设计的,但是企业也可以按照自己设定的服务器进风温度进行设计,在此进风温度下,服务器可以安全运行。 IT设备热一致性表示符合ASHRAE规定的服务器进风温度的IT负荷有多少,以及与总的IT负荷相比所占百分比是多少。 例如一个IT设备总负荷为500kW的数据中心,其中满足ASHRAE规定的服务器进风温度的IT负荷为450kW,则该数据中心的IT设备热一致性为95%。 虽然TGG解释说,IT设备热一致性涉及的只是在正常运行条件下可接受的IT温度,但是IT设备热一致性仍然是一个很难计算的能源效率,因为必须知道:1)服务器进风温度的范围,包括ASHRAE规定的和企业自己规定的进风温度范围;2)测点位置,需要收集整个数据中心服务器各点的进风温度,由人工收集或利用数据中心基础设施管理(DCIM)软件来统计。 3.2.3IT设备热容错性ITTR TGG对ITTR的定义为:当冗余制冷设备停机,或出现故障,或正常维修时,究竟有多少IT设备在ASHRAE允许的或建议的送风温度32℃下送风。 按照TGG的解释,ITTR涉及的只是在出现冷却故障和正常维修运行条件下可接受的IT温度,但是ITTR也是一个很难确定的参数。 ITTR的目的是当冗余冷却设备停机,出现冷却故障或在计划维护活动期间,确定IT设备在允许的入口温度参数下(<32℃)运行的百分比,以便确定数据中心冷却过程中的中断或计划外维护的性能。 这个参数很难手算,因为它涉及到系统操作,被认为是“计划外的”条件,如冷却单元的损失。 3.3.数据中心平均效率CADE 数据中心平均效率CADE是由麦肯锡公司提出,尔后又被正常运行时间协会(UI)采用的一种能源效率。 CADE提出时自认为是一种优于其他数据中心能源效率的指标。 该指标由于被UI所采用,所以直到目前仍然被数量众多的权威著作、文献认为是可以采用的数据中心性能指标之一。 但是笔者发现这一性能指标的定义并不严谨,容易被误解。 另外也难以测量和计算。 该指标的提出者并未说明IT资产效率如何测量,只是建议ITAE的默认值取5%,所以这一指标迄今为止未能得到推广应用。 3.4.IT电能使用效率ITUE和总电能使用效率TUE 2013年,美国多个国家级实验室鉴于PUE的不完善,提出了2个新的能源效率——总电能使用效率TUE和IT电能使用效率ITUE。 提出ITUE和TUE的目的是解决由于计算机技术的发展而使得数据中心计算机配件(指中央处理器、内存、存储器、网络系统,不包括IT设备中的电源、变压器和机柜风机)的能耗减少时,PUE反而增加的矛盾。 但是这2个性能指标也未得到广泛应用。 3.5.单位能源数据中心效率DPPE 单位能源数据中心效率DPPE是日本绿色IT促进协会(GIPC)和美国能源部、环保协会、绿色网格,欧盟、欧共体、英国计算机协会共同提出的一种数据中心性能指标。 GIPC试图将此性能指标提升为国际标准指标。 3.6.水利用效率WUE TGG提出的水利用效率WUE的定义为:数据中心总的用水量与IT设备年耗电量之比。 数据中心的用水包括:冷却塔补水、加湿耗水、机房日常用水。 根据ASHRAE的调查结果,数据中心基本上无需加湿,所以数据中心的用水主要为冷却塔补水。 采用江河水或海水作为自然冷却冷源时,由于只是取冷,未消耗水,可以不予考虑。 民用建筑集中空调系统由于总的冷却水量不大,所以判断集中空调系统的性能时,并无用水量效率之类的指标。 而数据中心由于全年制冷,全年的耗水量居高不下,已经引起了国内外,尤其是水资源贫乏的国家和地区的高度重视。 如何降低数据中心的耗水量,WUE指标是值得深入研究的一个课题。 3.7.碳使用效率CUE TGG提出的碳使用效率CUE的定义为:数据中心总的碳排放量与IT设备年耗电量之比。 CUE虽然形式简单,但是计算数据中心总的碳排放量却很容易出错。 碳排放量应严格按照联合国气象组织颁布的计算方法进行计算统计。
“云服务”是指在云计算的技术架构支撑下,对外提供的按需分配、可计量的IT服务,可用于替代用户本地自建的IT服务,按服务层次可分为IaaS、PaaS、SaaS。PaaS介于IaaS和SaaS之间,随着云计算的深入发展,逐渐成为云计算技术和应用创新最活跃的领域。PaaS行业产业链包括上游基础硬件和基础软件供应商,中游主要的的PaaS服务商以及下游的产品运营服务商。
行业主要上市公司:阿里巴巴()、腾讯控股()、用友网络()、金蝶国际()、东软集团()、华胜天成()、优刻得()等
本文核心数据:云计算市场规模、PaaS市场规模
行业概况
1、定义
云计算是分布式计算的一种,指的是通过网络“云”将巨大的数据计算处理程序分解成无数个小程序,然后,通过多部服务器组成的系统进行处理和分析这些小程序得到结果并返回给用户。“云”实质上就是一个网络,狭义上讲,云计算就是一种提供资源的网络,使用者可以随时获取“云”上的资源,按需求量使用,并且可以看成是无限扩展的,只需按使用量付费。从广义上说,云计算是与信息技术、软件、互联网相关的一种服务,这种计算资源共享池叫做“云”,云计算把许多计算资源集合起来,通过软件实现自动化管理,快速提供资源。
公有云、私有云和混合云是从部署方式的角度对云计算进行的分类。公有云,指基础设施由某一组织所拥有,面向公众或某一行业提供云计算服务的部署模式;私有云,是将云基础设施与软硬件资源部署在内网之中,供机构或企业内各部门使用的云计算部署模式。混合云指,同时部署公有云和私有云的云计算部署模式。
而“云服务”是指在云计算的技术架构支撑下,对外提供的按需分配、可计量的IT服务,可用于替代用户本地自建的IT服务,按服务层次可分为IaaS、PaaS、SaaS。
关于IaaS、PaaS、SaaS这三者的区别,行业内的软件架构师们曾用披萨作为比喻进行解释。
假设一个餐饮业者,计划经营披萨店。店长可以选择从头到尾生产披萨,但是所需设备、资源和流程较多,因此店长决定外包一部分工作,购买他人的服务,现有三种可选方案:
1)方案一(IaaS):他人提供厨房、炉子、煤气,店长使用这些基础设施,自行烤制披萨。
2)方案二(PaaS):除了基础设施,他人还提供披萨饼皮,店长只需自己配料,让他人烤制。即店长只参与了设计披萨的味道(海鲜披萨或者鸡肉披萨),他人提供平台服务,让店长的的设计实现。
3)方案三(SaaS):他人提供披萨成品。店长只需参与销售环节,可以进行一定的包装设计。
上述三种方案即与IaaS、PaaS、SaaS形成了对应。IaaS是云服务的最底层,主要提供一些基础资源,产品主要有Amazon EC2、Linode、Joynet、IBM Blue Cloud以及Cisco UCS等。
PaaS提供软件部署平台(runtime),抽象掉了硬件和操作系统细节,可以无缝地扩展(scaling)。开发者只需要关注自己的业务逻辑,不需要关注底层。产品主要有Google App Engine、Heroku以及Windows Azure latform等。
SaaS是软件的开发、管理、部署都交给第三方,不需要关心技术问题,可以即拿即用。普通用户接触到的互联网服务,几乎都是SaaS。产品有Salesforce sales cloud、GoogleAppsyiji IBM Lotus Live等。
而PaaS介于IaaS和SaaS之间,随着云计算的深入发展,逐渐成为云计算技术和应用创新最活跃的领域。从应用场景来看,PaaS分为APaaS(Application PaaS,应用开发平台即服务)、IPaaS(Integration PaaS,集成平台即服务)、IoTPaaS(物联网平台即服务)、AIPaaS(人工智能平台即服务)、BDPaaS(大数据平台即服务)、DBPaaS(DataBase PaaS数据库平台即服务)、SOPaaS(Security and Operation PaaS,安全及运维平台即服务)等。而从服务范围来看,PaaS又可以分为公有PaaS和私有PaaS。
2、产业链剖析:介于IaaS和SaaS之间
PaaS行业产业链包括上游基础硬件和基础软件供应商,中游主要的PaaS 服务商以及下游的产品运营服务商。上游的laaS服务商为中游的PaaS服务商提供基础设施资源和服务,包括云主机、云储存、云网络、CDN、虚拟化硬件等。中游PaaS服务商为下游的SaaS服务商提供数据库、应用开发、应用部署、应用运行、基础框架、中间件等服务。下游的SaaS服务商提供的SaaS服务包括CRM、ERP、HRM、OA(财务管理)、内容服务、通信协作等。
行业发展历程:行业进入融合期
在PaaS行业早期,云计算厂商最先关注SaaS和laas,对PaaS的开发相对滞后。2011-2012年间,AWS Beanstalk、RedHat Openshift、VMWare Cloud Foundry等PaaS平台陆续推出市场。转折出现在2013年,dotCloud的Solomon Hykes第一次展示了Docker技术,提供了一种在Linux容器中运行应用的新方式。随着云计算概念的热潮,阿里巴巴、华为等科技巨头在公有云PaaS领域层层加码,一批初创型PaaS服务公司涌现在市场中,PaaS加速应用推广。发展至今,SaaS、laaS厂商的业务向PaaS市场渗透,云计算产业融合趋势越来越显著。
行业政策背景:政策环境利好
近年来,国务院、工信部等部门发布一系列云计算相关法规标准,一方面将用于指导云计算系统的设计、开发和部署,另一方面更是规范和引导云计算基础设施建设、提升云计算服务能力水平(尤其是云计算安全方面)、以及规范市场秩序等。数字化转型和产业升级是大势所趋,云计算作为数字经济的基石,有望依托政策拐点,率先迎来行业景气度的新一轮提升。
行业发展现状
1、公有云有望成为主要动力
随着经济回暖,全球云计算市场所受影响逐步减弱,至2021年已基本恢复到疫情前增长水平。根据Gartner统计,2021年以laaS、PaaS、SaaS为代表的全球公有云市场规模达到3307亿美元,增速32.5%。
根据中国信通院数据,2021年中国云计算总体处于快速发展阶段,市场规模达3229亿元,较2020年增长54.4%。其中,公有云市场规模增长70.8%至2181亿元,有望成为未来几年中国云计算市场增长的主要动力。
2、PaaS保持细分市场最高增速
根据中国信通院数据,2017-2021年,中国公有云PaaS虽然在三种类型的公有云服务市场中占据着最小的市场份额,但是近年来一直保持着各细分市场中最高的增长速度,2021年其市场规模增长至196亿元,增速为90.7%,占整体市场的份额由2017年的4.47%上升至2021年的15.04%。
注:上图环形图由内到外依次为2017-2021年数据。
3、技术赋能型PaaS占市场份额最大
根据海比研究院报告,PaaS具体可分为技术赋能型、应用开发型、集成服务型及底座支撑型四种类型。其中,技术赋能型核心价值在于将技术赋能于前端的应用和业务,降低技术的使用门槛;应用开发型核心价值在于提升应用开发效率;集成服务型核心价值在于解决数据孤岛问题并深度挖掘数据价值;底座支撑型核心价值在于提供以云原生技术为主的底层技术支持。总体来看,PaaS处于成长期,发展潜力巨大。其中,2020年,技术赋能型市场规模达108亿元,占市场份额最大,为38.5%。
4、下游制造业市场占比最大
根据海比研究院数据,制造行业PaaS市场规模最大,约占12.1%的市场份额,主要由于制造业企业众多,且常采用均价较高的定制化PaaS。
行业竞争格局
1、区域竞争:北广杭深领跑全国
为客观反映各地云计算市场的发展状况,并衡量地方政府对云计算发展的引导作用,中国社科院战略研究所联合阿里云通过主成分分析法(Principal Components Analysis,PCA),针对中国大陆的城市及省级行政区构建了一套云计算发展评价指标体系。
从云计算发展水平综合得分情况来看,中国大陆的337个地级及以上城市可分为5个梯队,包括深圳、杭州、北京和广州4个云计算一线城市、成都等14个云计算二线城市、石家庄等80个云计算三线城市、德州等101个云计算四线城市和长治等138个云计算五线城市。
中国大陆的31个省级行政区,同样可根据云计算评价指标体系综合得分分为5个梯队。其中,第一梯队包括广东、浙江、北京和江苏,4省市对后续梯队省级行政区的优势显著;第二梯队包括山东、福建、四川、湖南、河北、上海、湖北;第三梯队为河南、辽宁、安徽、陕西;第四梯队包括贵州、江西、内蒙古、广西、山西、重庆、云南、天津、甘肃和黑龙江;第五梯队包括吉林、青海、海南、新疆、宁夏、西藏。
2、企业竞争:阿里云、亚马逊云科技、华为云为行业领导者
根据赛迪发布的《2021-2022 年中国PaaS市场研究年度报告》,从市场地位与发展能力两个维度对中国PaaS市场厂商竞争力进行评估,阿里云、亚马逊云科技、华为云处于市场领先地位。
行业发展前景及趋势预测
1、新型数据中心构建版图
数据中心的构建和完善对云计算的发展极为重要。新型数据中心是以支撑经济社会数字转型、智能升级、融合创新为导向,以5G、工业互联网、云计算、人工智能等应用需求为牵引,汇聚多元数据资源、运用绿色低碳技术、具备安全可靠能力、提供高效算力服务、赋能千行百业应用的新型基础设施,具有高技术、高算力、高能效、高安全特征。随着新一代信息技术快速发展,数据资源存储、计算和应用需求大幅提升,传统数据中心正加速与网络、云计算融合发展,加快向新型数据中心演进。《新型数据中心发展三年行动计划(2021-2023年)》的发布有利于给我国云计算产业提供规划指导,有利于我国云计算产业极其配套措施的完善和协同发展。
根据《新型数据中心发展三年行动计划(2021-2023年)》,我国将用3年时间,基本形成布局合理、技术先进、绿色低碳、算力规模与数字经济增长相适应的新型数据中心发展格局。总体布局持续优化,全国一体化算力网络国家枢纽节点、省内数据中心、边缘数据中心梯次布局。技术能力明显提升,产业链不断完善,国际竞争力稳步增强。算力算效水平显著提升,网络质量明显优化,数网、数云、云边协同发展。能效水平稳步提升,电能利用效率(PUE)逐步降低,可再生能源利用率逐步提高。
2、PaaS发展趋势
未来,随着我国云计算技术和应用的不断深入发展,我国PaaS行业将呈现以下发展趋势:
更多本行业研究分析详见前瞻产业研究院《中国云计算产业发展前景预测与投资战略规划分析报告》。
本地idc数据中心企业一、上市企业1、光环新网地理优势——公司现有机柜中超75%分布在北京,约10%分布在北京周边,超14%分布在上海。 公司目前正在京津冀地区、上海及长三角地区IDC市场积极布局,房山二期、河北燕郊三期、燕郊四期、上海嘉定二期、江苏昆山园区等绿色云计算基地项目的筹划及建设工作正在有序进行。 自有土地优势——公司目前一共拥有八大数据中心,主要为自有土地,一共规划约5万个机柜,按照公司现有项目储备,可扩容至约10万个机柜的体量,产能储备丰富。 自有土地可以带来明显的成本优势。 公司IDC业务商业模式为零售,前五大客户占比不高。 金融客户平均租金价格最高,目前公司客户结构中拥有近1/3的金融客户。 自建+并购的扩张模式2、万国数据目前公司数据中心覆盖上海、北京、深圳、广州、成都等一线城市及其周边地区,客户包括互联网及云计算、金融客户、大型央企国企等600余家,目前已成为行业内批发型数据中心领军企业。 公司瞄准了IDC行业高速成长机遇,借助美国宽松的资本市场环境,近年来实行较为激进的扩张策略。 公司近五年来营收复合增速高达56%;由于扩张步伐较快,公司净利润处于亏损状态,我们主要考察EBITDA指标。 随着上架率的提升,公司固定成本和费用体现出规模效应,近五年EBITDA复合增速达到121%,EBITDA率也随着上架率的提升开始爬坡。 公司快速扩张对资金需求较高,从公司的负债率来看,当前负债率较高,但偿债能力正在逐步改善。 公司客户以云计算客户为主,质量优质。 商业模式以批发型为主,零售型为辅。 批发型业务与客户签订合同主要以三到十年为期限,零售型业务与客户签订合同主要以一到五年为期限。 公司近年来不断调整客户结构,乘云计算之风,选择更多的承接云化数据中心项目,云计算客户占比也由2017H1的51.1%提升至2019H1的73.0%。 与此同时客户类型与质量不断优化,截止2019H1,公司服务客户数量超过600家,主要包括阿里、腾讯、网络、微软、携程、平安科技、华为等。 上电率不断爬坡,签约率持续稳定。 归因于客户结构变化的原因,公司平均机柜租金一定程度有所下降,但公司机柜上电率的爬坡保证了公司业绩的快速增长。 从机柜销售情况来看公司的预销售率不断提升,得益于销售能力和品牌效应不断加强;而机柜签约率近两年始终保持在90%以上,更能直接反应行业需求持续旺盛。 现有可供运营数据中心仍有爬坡空间。 目前公司数据中心分布于北京、上海、深圳、广州、成都地区及其周边,截止2019H1可供运营的面积有平米,若按照2.5平米对应每个机柜折算,约个机柜。 其中约个机柜正在稳定运营,约个机柜仍在爬坡过程之中。 资源储备丰富,机柜仍将快速扩张。 从资源储备来看,截止2019H1公司在建面积平米,折合个机柜,分布在北京、上海、深圳、广州等核心城市及周边地区,其中北京地区在建面积平米,上海地区在建面积平米,广深地区在建面积平米。 公司仍处于快速扩张期,2019年第二季度公司新建BJ8、LF1、LF2三个数据中心,三个数据中心合计能够容纳平米IT资源。 同时,公司拟收购BJ9数据中心。 该数据中心能够容纳8029平米,预计年底完成收购。 3、数据港第三方定制化批发型IDC供应商,在运营15个数据中心,在建10个左右数据中心。 公司客户主要为BAT尤其是阿里巴巴,一般签订10年服务合同,且以批发形式销售。 所建数据中心的销售和利用率有稳定保障。 公司大股东为市北高新集团,背后实控人为静安区国资委。 国企的背景给了公司资金、拿地方面的巨大优势,有助于公司快速扩建。 近年来,随着公司与阿里巴巴的深度合作,连续签订了总金额超130亿的服务合同,使得公司快速发展,后续成长也有坚实保障。 互联网进入下半场,批发定制型IDC更受益公司是第三方IDC服务商中的第一梯队企业,竞争优势显着,保证公司充分受益行业趋势:同时服务于BAT互联网巨头,运维能力强,受到行业及客户认可先订单,再建设,后运营”的批发定制业务模式,保障了公司所建数据中心的销售和上电率公司具有全生命周期管理和成本控制能力,PUE达到全球领先水平已具备行业内领先的业务体量,上市后进一步增强综合业务能力。 数据港的传统IDC业务规模在2019年不断扩大,例如投资建设的ZH13等数据中心项目,今年3月与阿里签订了合作备忘录,项目预计总投资约18.59亿元,预计项目未来十年服务收入总金额最高可达到82.8亿元人民币。 此类与大客户签订的订单是数据港基础业务快速增长的主要动力。 2014-2018营收复合增速为33.79%,归母净利润复合增速为24.77%;EBITDA复合增速为26.81%。 起步于阿里,逐步拓展至大客户。 公司成立之初建设杭州536数据中心,主要为阿里提供定制化服务。 2011年以来,受益移动互联网和云计算的快速发展,国内BAT等大型互联网公司业务规划大幅提升,不约而同地形成大约以1.5万~2万台服务器为一个大型数据中心模块的技术规划。 公司凭借服务阿里的定制化项目经验,抓住行业机遇,客户也从单一的阿里逐步拓宽至腾讯、网络等等。 合作不断加深,再次斩获阿里订单。 公司与阿里十年来,双方合作不断加深。 截止2018年公司已经连续8年为阿里巴巴提供双十一数据中心运维保障服务。 2017年公司收到阿里巴巴HB33数据中心需求意向函,项目预计总投资8.8亿元,数据中心总金额测算约14亿元,服务期限10年。 2018年公司再次收到阿里巴巴5个项目意向函,总投资约18.6亿元。 根据结算方式的不同,按照10年服务期限,结算模式一平均每年可以贡献4.04亿收入,结算模式二平均每年可以贡献8.28亿收入。 公司在手订单或意向合同充沛,成长动力充足。 截止2019H1,公司共运营15个自建数据中心,主要分布在上海、杭州、深圳、北京等核心城市以及周边地区,合计可供运营机柜数个。 公司在手订单或意向合同项目包括与中国电信合作的萧山大数据平台项目、与中国联通合作的深圳创益项目,房山中粮项目,与阿里合作的HB33中都草原项目,以及与阿里合作的ZH13等五个云化数据中心项目。 若其他项目参照萧山项目投资额进行机柜折算,公司未来3-5年有望新增1.8个机柜以上,成长动力充足。 4、杭钢股份在业内人士看来,IDC虽然市场前景大,但行业目前出现了产能过剩的情况,所以杭钢股份的跨界也存在难度。 6、城地股份2018年收购香江科技新增IDC业务,2019年100%并入,预计2020年IDC业务达上市公司收入一半以上。 香江科技聚焦IDC运营,集成解决方案,设备等业务,客户有移动、华为、联通等。 根据香江科技财报数据,近年来该公司经营业绩表现不错,草案披露的报告期内分别实现营业收入4.9亿元、8.91亿元和1.40亿元,其中,2017年的营业收入还实现同比增长81.78%;净利润方面,报告期内实现金额分别为3573.00万元、8064.93万元和1523.46万元,其中2017年的净利润同比增幅达到125.72%。 香江科技的资产负债率居高不下,分别达到了67.16%、67.13%和64.87%,相比之下,作为同行业的上市公司光环新闻、网宿科技以及国脉科技的资产负债率却要比香江科技低得多,2016年和2017年的行业平均资产负债率分别仅有24.70%和31.05%,即便是在2018年上半年,行业资产负债率也不过是31.48%。 7、世纪互联全国20+城市|50+数据中心|2000G+端口容量|?+机柜世纪互联已构建京津冀、珠三角、长三角三个大的数据中心集群,并实现了数据中心之间互联互通,采用SDN技术保障链路的高可靠性,形成庞大的、全连接的数据中心“大底盘”。 ???8、宝信软件作为第三方IDC数据中心的宝信软件,那可不一般,建设周期短,投资成本低,拥有宝钢现成的工业厂房等设施,免费建设IDC,只需要购置冷却设备、安防系统等,就可以完成IDC机房建设。 公司的IDC建设周期能缩短9个月左右,成本是数据港的1/2。 公司的IDC数据中心宝之云,坐落在上海罗泾,目前已经完成了三期,可用机柜数量达1.85万个,另外宝之云四期有8800个,目前已经开始交付部分机柜,完成后达2.7万个机柜,而且还能扩容,目前是亚洲最大的单体IDC数据中心。 公司的目标是把IDC辐射全国,2019年初,公司20%与武钢40%、上海宝地资产30%、武汉青山国资10%,共同在武汉合资建设大数据产业园——武钢大数据产业园有限公司,计划2019、2021、2023分别建2000、6000、个机柜,总计1.8万个,打造华中区域单体规模最大的数据中心。 截止2019年9月公司已经拥有机柜近2万架,并拥有超10万架机柜的建设用地。 2018年年报显示,营收54.7亿,同比增长14.56%,净利润6.69亿,同比增长57.34%,扣非净利润6.04亿,同比增长54.87%,其中:软件开发及工程服务营业收入为35.22亿元,服务外包营业收入为16.90亿元,系统集成营业收入为2.42亿元;服务外包同比增长36.8%,是增长最快的,毛利率也是最高的,达到了40%,服务外包,指的就是IDC,接近总营收的40%。 预计公司19、20年IDC收入分别为13.33、16.58亿元。 2017年公司宝之云IDC四期项目发行可转债募集资金净额15.77亿元。 9、浙大网新浙大网新8月12日晚间发布公告,公司全资子公司华通云数据与阿里巴巴就数据中心项目达成合作共识,并签署了包含ZH12数据中心项目的《关于数据中心机房项目的合作备忘录》。 商业模式为直销,大客户主要为浙江天猫、淘宝、华数广电、华数传媒。 华通云数据中心立足浙江布局全国,已投运6个T3+以上规格的数据中心,分别为杭州转塘、杭州紫荆、上海金桥、临安青山湖、淳安千岛湖、杭州三墩数据中心,总建筑面积多平方米,在网运营机柜多个。 各数据中心PUE在1.2-1.5之间,其中淳安千岛湖数据中心按T4+建设,是全球最节能的数据中心之一,PUE1.2。 华通云数据拥有一支资深的专家维护团队,7*24小时为客户提供专业服务。 服务的客户主要是独角兽俱乐部和千里马俱乐部的成员:如阿里巴巴、腾讯、网络、乐视、优酷、京东、360、美团、大众点评、一号店、天翼支付、洋码头、搜狐、新浪、爱奇艺等,以及金融类:浦发银行、方正证券、中大期货,海尔快捷通等,还包括政府客户、广电客户。 10、奥飞数据公司是华南地区较有影响力的专业IDC服务商,主要为客户提供IDC服务及其他互联网综合服务,现已形成以广州、深圳、北京、上海、南宁、桂林为核心节点的国内骨干网络,并逐步建立以香港为核心节点的国际网络。 公司在广州、深圳等核心城市拥有自建高品质IDC机房,与中国电信、中国联通、中国移动等基础电信运营商保持着密切合作关系,为客户提供机柜租用、带宽租用等IDC基础服务及内容分发网络、数据同步、网络安全等增值服务。 截至2019年6月末,公司在广州、深圳、海南、北京等地拥有自建数据中心,自建数据中心可用机柜数超过4,000个;根据公司数据中心建设和扩张计划,预计2019年年末,公司自建数据中心机柜数量将超过8,000个。 一方面,相对于基础运营商的机房公司自建IDC机房具有更强的可控性,可以整合基础运营商的网络资源;另一方面,公司自建机房有利于降低机柜运营成本,从而取得更高收益。 除自建机房外,公司在全国其他骨干网络节点,通过与当地中国电信、中国联通、中国移动等电信运营商合作运营机房,进行合理布局,可满足客户全国布点需求。 2018年,奥维科技与北京德升科技有限公司签订了合同总金额约3.5亿的业务合同,为其在北京建设一个建设规模约为3,200个机柜的数据中心。 二、未上市企业1、腾龙控股集团11月18日,腾龙光谷数据中心开工仪式在光谷光电子信息产业园举行。 数据中心由光电子信息产业园和智能制造产业园两个园区组成,由腾龙控股集团投资105亿元,按照国际T3+标准,打造两个高等级、高安全、高可靠的新一代云计算数据中心。 该项目计划分为三期同步建设,2020年9月一期建成交付4360个机架,至2021年9月共建成交付个机架。 项目建成后,将成为武汉光谷区域内最大规模高等级数据中心。 2019年6月位于重庆两江新区水土高新生态城的中国电信两江腾龙数据中心一期项目落成投运。 其二期建设正式启动,预计最快于2019年年底投运。 中国电信两江腾龙数据中心是为深圳市腾讯计算机系统有限公司“量身定制”的数据中心,由中国电信重庆公司与腾龙两江科技有限公司通力合作,历经10个月的建设,现先已交付使用。 该项目一期建设总投资额约7亿元,打造成为中国西部地区高等级、高安全、高可靠的云计算数据中心之一。 项目共计2200个高密机柜,采用微模块模式建设,供电保障为双回路,双路由,四路市电接入。 近历时10个月就完成了数据中心的竣工交付。 下一步中国电信重庆公司将继续与腾龙公司合作,进行中国电信两江腾龙数据中心二期项目的建设。 据悉,二期项目占地面积约37亩,建筑面积约平方米,将高标准建设4500个机柜的最高等级数据中心,投资额达到13亿元。 目前,腾龙亦庄数据中心、中国电信两江腾龙数据中心已建成投入运营。 在建的包括腾龙兆丰数据中心、腾龙光谷数据中心等。 腾龙控股未来三年将实现全国重要节点城市IDC资源全覆盖,在中国核心城市规划15座机房,包括北京、上海、天津、深圳、广州、南京、武汉、郑州、重庆、成都、昆明、沈阳、呼市、西安、南宁、兰州、黄山等地,陆续建成总体量达10万台机柜的数据中心,形成覆盖全国的网络化运营格局,五年内打造成中国数据中心机房保有数的NO.1。 客户:BAT2、润泽科技河北廊坊润泽国际信息港?距北京市中心50公里润泽国际信息港项目占地134万平方米,建筑面积262万平方米,专业数据中心机房面积达66万平方米。 将打造成亚洲最大的云数据中心集聚港,并建设成一个开放式的云存储数据中心产业集聚服务平台。 润泽国际信息港项目被列入河北省“十二五”重点规划,承担着廊坊市及河北省信息产业转型的重要任务。 润泽国际信息港是润泽科技于2010年5月18日开工投资建设的云存储数据产业园区,润泽国际信息港总投资规模650亿元,占地2012亩,建设面积262万平米,其中数据中心面积66万平方米,可满足200万台以上服务器运行。 已投入使用的数据中心面积8.2万平米及12栋创新研发楼,正在建设面积达14万平米,并吸引了众多单位入驻及合作,其中政府领域:国家信息安全中心、国家信息中心、国防科工局、工信部CSIP;金融领域:证监会、保监会、河北省建行、河北省开发银行、平安银行、中关村科技租赁、民生融资租赁等;企业领域:北京电信、中国科技网、国家超级计算天津中心等;教育领域:赛尔网络等;依托入驻园区企业的高速成长,润泽国际信息港在云计算、大数据领域步入国内前列。 3、浙江云谷浙江云谷-磐石云数据中心项目采用新业态模式,由浙江云谷、中国电信、浙能集团三方合作打造。 数据中心整合中国电信带宽资源优势、浙能集团电能、余热等资源优势、由浙江云谷公司作为项目运营载体,负责土地投资、土建和配套建设及项目运营。 浙江云谷-磐石云数据中心位于浙江温州磐石,距离温州龙湾机场仅20公里,车程20分钟;数据中心规划用地面积约50亩,建设总规模约_,具备约7900机架装机能力,投资总额10.6亿元。 项目分两期建设,一期总建筑面积.64_。 一期采用2T独立三线BGP线路,已建2路由直达163骨干可靠性99.99%;机房依照国际T3+、国内A级标准建设,采用模块化设计;数据中心紧邻浙能集团温州发电厂,双路市电输入,4套400KVA2+1并机电源,每台主机各配置1200AHUPS1组,配备14台1800KW大容量柴油机发电机组,电力系统可靠性99.99%;机房采用溴化锂水冷空调机组,地板下送风,PUE低于1.28;消防系统完善,烟感温感监控,采用七氟丙烷全自动管道式气体灭火;7*24小时客服,智能化运营管理服务平台。 浙江云谷-磐石云数据中心项目于2017年8月23日签约,2018年8月29日开工,今年7月一期建设封顶,将于2020年6月正式投入运行。 4、卓朗科技虽然卓朗科技正式进军IDC领域仅四年,IDC业务版块取得的成绩却已是成绩斐然,现有数据中心涵盖IDC传统优势区域、二三线城市市场、气候资源优势区域。 卓朗科技在全国范围内建造了四地五中心的数据中心节点构架,分别为:天津一期数据中心、天津金霞路数据中心、北京亦庄云计算数据中心、江西抚州云计算数据中心和规划建设中的新疆昌吉云计算数据中心。 天津数据中心一期位于天津红桥区意库产业园,按照国际Tier3、国家A级标准建设。 建筑面积4000_,机房面积:1800_,配置657个机柜,目前已经投入运营。 数据中心二期位于天津市西青区金霞路,同样按照国际Tier3、国家A级标准设计建设,预计于2020年动工,设计配置机柜7112个。 北京亦庄云计算数据中心位于亦庄经济开发区,建筑面积9552_,按照国际Tier3、国家A级标准建设,数据中心标准机柜2024个,分九个模块,采用单独的供配电系统以及空调制冷,可相互进行容灾备份。 江西抚州云计算数据中心一期位于江西抚州市高新区园纵四路与惠泉路交叉口,一起建筑面积4600平米,同样按照国际Tier3、国家A级标准建设的数据中心,标准机柜600个。 二期建设建成后整体规模标准机柜4776个。 新疆吉昌数据中心位于新疆昌吉市,设计容纳8000+机柜,正在规划建设中。 李立仑表示,卓朗科技不仅仅投身于数据中心建造,同时也为着力打造数IDC与云计算的共生生态付出了很大的心血。 未来卓朗会在北上广深渝等地加大自建数据中心部署力度、同时会在高密、高电、高安全防护、高度定制化等方向突出数据中心特色。 卓朗科技的数据中心还会根据当地气候和资源情况,采用不同的降能耗创新手段。 5、能通科技能通科技股份有限公司业务涉及云计算、智慧城市等领域。 重整后的新能通科技服份有限公司于2018年正式落户北京市房山区,并于12月18日全面启动了“能通云计算数据中心”的项目建设。 零磁道数据恢复中心修复0磁道并保留数据操作有一定难度,先把硬盘直接挂到电脑上,BIOS里设置硬盘为NONE,用MHDD检测一修复一下坏道,一般来说,O磁道多是逻辑坏道,可以直接修复,完成坏道处理后用ERASE命令搽除硬盘前面63个扇区的内容或者直接运行FDISK命令修复MBR,操作完成后BIOS设置硬盘检测为AUTO,用启动盘启动电脑,使用DISKGENIUS重建分区表即可恢复扩展分区和里面的数据,主分区恢复会麻烦些,一般主分区也不会保留重要数据有问题网络HI联系上海idc公司上海移动临港IDC数据中心地址:浦东新区南汇新城两港大道6000号上海国富光启月浦IDC数据中心地址:云天路248idc公司排名1、idc排名无法查询,只有专业机构有条件进行查询。 2、3、IDC,即互联网数据中心,可以为用户提供包括:申请域名、租用虚拟主机空间、主机托管等服务。 此外,还有国际数据公司、初始直接费用等多种含义。 IDC即InternetDataCenter,是基于Internet网络,为集中式收集、存储、处理和发送数据的设备提供运行维护的设施基地并提供相关的服务。 IDC提供的主要业务包括域名注册查询主机托管、资源出租、系统维护、管理服务,以及其他支撑、运行服务等。 更多关于idc排名怎么查,进入:查看更多内容中国数据中心公司排名10强国内大数据主力阵营:1.阿里巴巴阿里巴巴拥有交易数据和信用数据,更多是在搭建数据的流通、收集和分享的底层架构。 2.华为华为云服务整合了高性能的计算和存储能力,为大数据的挖掘和分析提供专业稳定的IT基础设施平台,近来华为大数据存储实现了统一管理40PB文件系统3.网络网络的优势体现在海量的数据、沉淀十多年的用户行为数据、自然语言处理能力和深度学习领域的前沿研究。 近来网络正式发布大数据引擎,将在政府、医疗、金融、零售、教育等传统领域率先开展对外合作。 4.浪潮浪潮互联网大数据采集中心已经采集超过2PB数据,并已建立5大类数据分类处理算法。 近日成功发布海量存储系统的最新代表产品AS。 5.腾讯腾讯拥有用户关系数据和基于此产生的社交数据,腾讯的思路主要是用数据改进产品,注重QZONE、微信、电商等产品的后端数据打通。 国内做大数据的公司依旧分为两类:一类是现在已经有获取大数据能力的公司,如网络、腾讯、阿里巴巴等互联网巨头以及华为、浪潮、中兴等国内领军企业,涵盖了数据采集,数据存储,数据分析,数据可视化以及数据安全等领域;另一类则是初创的大数据公司,他们依赖于大数据工具,针对市场需求,为市场带来创新方案并推动技术发展。 其中大部分的大数据应用还是需要第三方公司提供服务。 值得一提的是,在初创公司当中探码科技是一匹黑马,擅长美国互联网前沿技术,崇尚硅谷创业模式,自主研发有核心技术,曾开发并维护美国拥有上千万用户级的网站,并在网络数据采集,大数据解析方面具有突出的能力,也将在国内推出一系列面向政务、企业的创新型大数据研究项目与合作,为各大企业提供高端信息技术咨询服务。 国内大数据主力阵营1.阿里巴巴阿里巴巴拥有交易数据和信用数据,更多是在搭建数据的流通、收集和分享的底层架构。 2.华为华为云服务整合了高性能的计算和存储能力,为大数据的挖掘和分析提供专业稳定的IT基础设施平台,近来华为大数据存储实现了统一管理40PB文件系统3.网络网络的优势体现在海量的数据、沉淀十多年的用户行为数据、自然语言处理能力和深度学习领域的前沿研究。 近来网络正式发布大数据引擎,将在政府、医疗、金融、零售、教育等传统领域率先开展对外合作。 4.浪潮浪潮互联网大数据采集中心已经采集超过2PB数据,并已建立5大类数据分类处理算法。 近日成功发布海量存储系统的最新代表产品AS。 5.腾讯腾讯拥有用户关系数据和基于此产生的社交数据,腾讯的思路主要是用数据改进产品,注重QZONE、微信、电商等产品的后端数据打通。 6.探码科技?探码科技自主研发的DYSON只能分析系统,可以完整的实现大数据的采集、分析、处理。 一直做的国外项目美国最大的律师平台、医生平台和酒店、机票预订平台的数据采集、分析、处理。 将在国内推出一系列面向政务、企业的创新型大数据研究项目与合作,为各大企业提供高端信息技术咨询服务。 7.中兴通讯中兴通讯推出的“聚焦ICT服务的高效数据中心整体服务解决方案”,可帮助运营商有效解决大数据时代建设IDC面临的大部分问题,提升运营商ICT融合服务能力。 8.神州融神州融整合了国内权威的第三方征信机构和电商平台等信贷应用场景的征信大数据,通过覆盖信贷全生命周期管理的顶尖风控技术,为微金融机构提供大数据驱动的信贷风控决策服务。 9.中科曙光中科曙光XData大数据一体机可实现任务自动分解,并在多数据模块上并行执行,全面提高了复杂查询条件下的效率。 10.华胜天成胜天成自主研发的大数据产品“i维数据”
目前,PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。 PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。 PUE值越接近于1,表示一个数据中心的绿色化程度越高。 随着电子信息系统机房IT设备高密度的集成化,解决设备散热及机房散热量日渐趋高的现象开始受到了各界强烈关注。 而根据研究显示,IT/电信目前相关的碳排放已经成为最大的温室气体排放源之一,由此一年产生的碳排放为8.6亿吨,且该领域的排放势头还在随着全球对计算、数据存储和通信技术需求的增长快速上升。 即使人们大力提高设备、机房结构等装置和数据中心的能效,到2020年,全球IT相关碳排放也将达到15.4亿吨。 所以越来越多的人开始关注绿色机房的建设。 目前,PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。 PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。 PUE值越接近于1,表示一个数据中心的绿色化程度越高。 当前,国外先进的数据中心机房PUE值通常小于2,而我国的大多数数据中心的PUE值在2-3之间。 所以国内机房内芯片级主设备1W的功耗会导致总体耗电量达到2-3W,而国外机房内芯片级主设备1W的功耗只会导致总体耗电量为2W以下。 机房建设前期的设计和规划就把节能、环保考虑到,并在设计和规划的过程中达到机房的使用要求的前提下,把机房的PUE值作为机房的设计和规划要求。 用户对PUE值的要求,机房设计满足并说明从几方面可以把机房的设计达到用户的要求。 根据统计数据显示,数据中心的冷却占机房总功耗的40%左右。 机房中的冷却主要是由机房空调负责,所以降低机房空调的耗电量可以有效的降低机房的PUE值。 由于现代电子信息系统机房中的空调负荷主要来自于计算机主机设备、外部辅助设备的发热量,其中服务器、存储、网络等主设备占到设备散热量的80%。 所以随着服务器集成密度的持续增高,服务器机柜设备区就成为了机房内主要的热岛区域。 服务器设备热密度越来越大。 机房下送风空调系统是将抗静电活动地板下空间作为空调系统的送风静压箱,空调机组由通风地板向机柜、设备等热负荷送风。 可是高密度机柜从机柜前面的地板出风口出风。 当冷风送至机柜的中部冷风已经被服务器全部吸收。 所以,机柜的上半部分没有足够的冷量,就会导致机柜上半部分的设备无法正常运行。 现在机房服务器类负荷的最高散热量近年来已攀升至每机柜20KW以上。 原有地板下送风机房精密空调系统理想送风状况下的机房单位面积最大供冷量为4KW/㎡(更大供冷量所配置的空调机组送风量也相应增大,其送风风压足以把地板给吹起来),已无法满足其需求。 上述的问题解决。 机房在设计中静电地板高度的提升,地板出风口的通风率的提高,封闭机柜冷通道。 还可以在用风道上送风和地板下送风结合制冷等方式进行解决。 机房空调的冷量不浪费,有效的利用可以很大的提高空调的利用率。 在实现机房制冷的前提下空调运行也可以节能。 通过空调系统一系列的优化,可以降低整个机房的PUE值。 然而,空调本身的耗电量是最主要的。 所以解决空调自身的耗电量成本降低空调能耗的关键。 机房中采用传统的风冷制冷方式是最耗电的运行方式。 在大的IDC中现在基本上都采用水冷式的机房空调系统,比风冷系统节能20%左右。 但是,我们可以在通过新的空调技术还可以比水冷空调在节能30%以上的空调系统(非电空调)。 非电空调俗称溴化锂空调、吸收式制冷机、燃气空调等,其工作原理是通过采用天然气、城市煤气、发电废热、工业废热、工业废水、太阳能、沼气等任何能产生80℃以上的热能为动力、以溴化锂为冷媒进行热交换,从而降低空调循环水温度,达到制冷目的;但“非电”只是空调本身的制冷不直接用电来运作,但是支持空调运作的后方机组,比如说,风机、水泵、冷却塔都是需要耗电的。 但相对于直接用电来制冷和制热,非电空调对电力的消耗非常小。 所以这种非电技术的意思是,我们无法杜绝用电,但是可以做到大幅度节约用电。 非电空调制冷原理:就是利用溴化锂溶液实现的,即水和溴化锂的二介介质,由于沸点不同而且具有吸水性的原因当加热溴化锂溶液时,水被蒸发,蒸发的水流入蒸发器内蒸发吸热,然后蒸汽被冷凝,再次与溴化锂混合成为溶液。 这些过程中,它被热源加热,然后通过蒸发将需要冷却的一端冷却了,同时冷凝的热量通过室外的冷却塔冷却或送到室内制热等。 这样就实现了用热制冷。 所谓非电技术,就是采用直接由热能来制冷的原理。 传统意义上的电空调,要完成制冷效果,必须由热能到机械能、由机械能到电能、再由电能回到机械能,最后才能到冷能,这其中5次能量转换过程都将排出一定数量的二氧化碳。 因此,从理论上来说非电空调不仅节约了能源,还有效地减少了空调制冷过程中4倍的碳排放。 机房建设中空调系统通过最新的技术,我们可以把空调的能耗占整个机房总能耗的比值控制在15%左右。 这样整个机房的PUE值就可以控制在2以下。 数据中心的UPS电源占机房总功耗的5%左右。 而UPS自身的功率占UPS的7%左右。 而且机房建设的等级越高需要UPS的数量就越多。 比如:一个国标C级的机房配置一台400KVAUPS就可以满足要求,这个机房中的负载没有变化,只是等级从C级变成A级。 但是,UPS就会从一台400KVA变成四台400KVA的UPS。 所以解决UPS的自身功耗也是非常重要的。 如果机房供电的电源质量非常好,UPS的工作方式就可以采用后备式的方式。 正常工作市电通过UPS的旁路直接给负载进行供电,UPS处于备份状态。 市电停电以后,直接转换成UPS电池供电模式。 通过这样的方式可以节约所有UPS的自身功耗的电量。 最后,PUE无论这样变化,都是大于1的乘数因子。 要做到最佳节能,降低服务器等IT设备的功耗,才是最有效的方法。 比如1W的IT设备需要总功耗电量为1.6W。 当降低服务器设备功耗为0.8的时候,数据中心总功耗立即降为0.8×1.6=1.28。 IT设备降低了0.2,而总耗电量降低了0.32。 这就是乘数因子效应。
本文地址:http://www.hyyidc.com/article/15220.html