好有缘导航网

绿色数据中心 PUE 值:构建可持续和节能的数据基础设施 (绿色数据中心建设标准)


文章编号:15228 / 分类:互联网资讯 / 更新时间:2024-07-02 09:48:09 / 浏览:

引言

随着数据需求的不断增长,数据中心已成为现代社会不可或缺的基础设施。传统数据中心的能耗巨大,对环境造成重大影响。绿色数据中心的概念应运而生,旨在通过采用节能技术和实践,提高数据中心的可持续性和能效。

PUE 值:测量数据中心能效的指标

电能使用效率 (PUE) 是衡量数据中心能效的关键指标。PUE 值表示数据中心用于为其 IT 设备供电的能源,与用于为整个设施供电的能源之比。PUE 值越低,表示数据中心越节能。

理想的 PUE 值为 1.0,表示数据中心 100% 的能源被用于为 IT 设备供电。现实中很难达到 1.0 的 PUE 值,因为数据中心还需消耗能源用于冷却、照明和其他非 IT 操作。

绿色数据中心建设标准

为了构建绿色和节能的数据中心,必须遵循以下标准:

1. 能源效率

  • 采用节能服务器和存储设备。
  • 优化冷却系统,使用高效冷却器和自由冷却技术。
  • 实施电源管理策略,如虚拟化和服务器休眠。
绿色数据中心PUE值构建可持续和节能的数据

2. 可再生能源

  • 使用可再生能源,如太阳能和风能,为数据中心供电。
  • 探索与公用事业公司签订可再生能源采购协议。
  • 部署电池存储系统,在需求高峰时储存多余的可再生能源。

3. 水资源管理

  • 采用节水冷却技术,如蒸发冷却和雨水收集。
  • 优化水循环系统,减少水的浪费。
  • 实施废水处理和再利用策略。

4. 材料和设计

  • 使用可回收和可持续的建筑材料。
  • 优化数据中心布局,提高气流和冷却效率。
  • 采用模块化和可扩展的设计,便于未来的增长和适应。

5. 监控和管理

  • 部署数据中心基础设施管理 (DCIM) 系统,监控和管理数据中心能耗。
  • 使用人工智能 (AI) 和机器学习 (ML) 算法,优化数据中心运营和节能措施。
  • 获得第三方认证,如 LEED 和 Energy Star,以验证数据中心的绿色实践。

绿色数据中心的好处

构建绿色数据中心具有以下好处:

1. 降低运营成本

通过提高能效,数据中心可以显着降低电费和其他运营成本。

2. 减少碳足迹

使用可再生能源和节能措施可以减少数据中心的碳排放,从而有助于减缓气候变化。

3. 提高声誉和竞争优势

绿色数据中心可以提升企业的声誉,并使其在可持续和节能意识日益增强的市场中获得竞争优势。

4. 增强可靠性和弹性

绿色数据中心采用冗余系统和适应性设计,以确保可靠性和弹性,从而减少停机时间并保护关键业务。

结论

通过采用绿色数据中心标准和部署节能技术,企业可以构建可持续和节能的数据基础设施。通过降低运营成本、减少碳足迹、提高声誉和增强可靠性,绿色数据中心正在塑造数据中心的未来,并为更具可持续性的数字未来铺平道路。


根据green grid标准绿色机房pue需达到多少

依据The Green Grid对绿色数据中心的定义,PUE小于1.6是其标志之一,理想目标是1.5以下。

工信部等三部门联合发文:大型和超大型数据中心PUE值不高于1.4

工信部、国家机关事务管理局、国家能源局近日联合印发《关于加强绿色数据中心建设的指导意见》(下简称《意见》),明确提出要建立健全绿色数据中心标准评价体系和能源资源监管体系,到2022年,数据中心平均能耗基本达到国际先进水平。 《意见》指出,引导大型和超大型数据中心设计电能使用效率值不高于1.4;力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 基本原则 政策引领、市场主导。 充分发挥市场配置资源的决定性作用,调动各类市场主体的积极性、创造性。 更好发挥政府在规划、政策引导和市场监管中的作用,着力构建有效激励约束机制,激发绿色数据中心建设活力。 改造存量、优化增量。 建立绿色运维管理体系,加快现有数据中心节能挖潜与技术改造,提高资源能源利用效率。 强化绿色设计、采购和施工,全面实现绿色增量。 创新驱动、服务先行。 大力培育市场创新主体,加快建立绿色数据中心服务平台,完善标准和技术服务体系,推动关键技术、服务模式的创新,引导绿色水平提升。 主要目标 建立健全绿色数据中心标准评价体系和能源资源监管体系,打造一批绿色数据中心先进典型,形成一批具有创新性的绿色技术产品、解决方案,培育一批专业第三方绿色服务机构。 到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的电能使用效率值达到1.4以下,高能耗老旧设备基本淘汰,水资源利用效率和清洁能源应用比例大幅提升,废旧电器电子产品得到有效回收利用。 重点任务 (一)提升新建数据中心绿色发展水平 1.强化绿色设计 加强对新建数据中心在IT设备、机架布局、制冷和散热系统、供配电系统以及清洁能源利用系统等方面的绿色化设计指导。 鼓励采用液冷、分布式供电、模块化机房以及虚拟化、云化IT资源等高效系统设计方案,充分考虑动力环境系统与IT设备运行状态的精准适配;鼓励在自有场所建设自然冷源、自有系统余热回收利用或可再生能源发电等清洁能源利用系统;鼓励应用数值模拟技术进行热场仿真分析,验证设计冷量及机房流场特性。 引导大型和超大型数据中心设计电能使用效率值不高于1.4。 2.深化绿色施工和采购 引导数据中心在新建及改造工程建设中实施绿色施工,在保证质量、安全基本要求的同时,最大限度地节约能源资源,减少对环境负面影响,实现节能、节地、节水、节材和环境保护。 严格执行《电器电子产品有害物质限制使用管理办法》和《电子电气产品中限用物质的限量要求》(GB/T)等规范要求,鼓励数据中心使用绿色电力和满足绿色设计产品评价等要求的绿色产品,并逐步建立健全绿色供应链管理制度。 (二)加强在用数据中心绿色运维和改造 1.完善绿色运行维护制度 指导数据中心建立绿色运维管理体系,明确节能、节水、资源综合利用等方面发展目标,制定相应工作计划和考核办法;结合气候环境和自身负载变化、运营成本等因素科学制定运维策略;建立能源资源信息化管控系统,强化对电能使用效率值等绿色指标的设置和管理,并对能源资源消耗进行实时分析和智能化调控,力争实现机械制冷与自然冷源高效协同;在保障安全、可靠、稳定的基础上,确保实际能源资源利用水平不低于设计水平。 2.有序推动节能与绿色化改造 有序推动数据中心开展节能与绿色化改造工程,特别是能源资源利用效率较低的在用老旧数据中心。 加强在设备布局、制冷架构、外围护结构(密封、遮阳、保温等)、供配电方式、单机柜功率密度以及各系统的智能运行策略等方面的技术改造和优化升级。 鼓励对改造工程进行绿色测评。 力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 3.加强废旧电器电子产品处理 加快高耗能设备淘汰,指导数据中心科学制定老旧设备更新方案,建立规范化、可追溯的产品应用档案,并与产品生产企业、有相应资质的回收企业共同建立废旧电器电子产品回收体系。 在满足可靠性要求的前提下,试点梯次利用动力电池作为数据中心削峰填谷的储能电池。 推动产品生产、回收企业加快废旧电器电子产品资源化利用,推行产品源头控制、绿色生产,在产品全生命周期中最大限度提升资源利用效率。 (三)加快绿色技术产品创新推广 1.加快绿色关键和共性技术产品研发创新 鼓励数据中心骨干企业、科研院所、行业组织等加强技术协同创新与合作,构建产学研用、上下游协同的绿色数据中心技术创新体系,推动形成绿色产业集群发展。 重点加快能效水效提升、有毒有害物质使用控制、废弃设备及电池回收利用、信息化管控系统、仿真模拟热管理和可再生能源、分布式供能、微电网利用等领域新技术、新产品的研发与创新,研究制定相关技术产品标准规范。 2.加快先进适用绿色技术产品推广应用 加快绿色数据中心先进适用技术产品推广应用,重点包括:一是高效IT设备,包括液冷服务器、高密度集成IT设备、高转换率电源模块、模块化机房等;二是高效制冷系统,包括热管背板、间接式蒸发冷却、行级空调、自动喷淋等;三是高效供配电系统,包括分布式供能、市电直供、高压直流供电、不间断供电系统ECO模式、模块化UPS等;四是高效辅助系统,包括分布式光伏、高效照明、储能电池管理、能效环境集成监控等。 (四)提升绿色支撑服务能力 1.完善标准体系 充分发挥标准对绿色数据中心建设的支撑作用,促进绿色数据中心提标升级。 建立健全覆盖设计、建设、运维、测评和技术产品等方面的绿色数据中心标准体系,加强标准宣贯,强化标准配套衔接。 加强国际标准话语权,积极推动与国际标准的互信互认。 以相关测评标准为基础,建立自我评价、社会评价和政府引导相结合的绿色数据中心评价机制,探索形成公开透明的评价结果发布渠道。 2.培育第三方服务机构 加快培育具有公益性质的第三方服务机构,鼓励其创新绿色评价及服务模式,向数据中心提供咨询、检测、评价、审计等服务。 鼓励数据中心自主利用第三方服务机构开展绿色评测,并依据评测结果开展有实效的绿色技术改造和运维优化。 依托高等院校、科研院所、第三方服务等机构建立多元化绿色数据中心人才培训体系,强化对绿色数据中心人才的培养。 (五)探索与创新市场推动机制 鼓励数据中心和节能服务公司拓展合同能源管理,研究节能量交易机制,探索绿色数据中心融资租赁等金融服务模式。 鼓励数据中心直接与可再生能源发电企业开展电力交易,购买可再生能源绿色电力证书。 探索建立绿色数据中心技术创新和推广应用的激励机制和融资平台,完善多元化投融资体系。 保障措施 (一)加强组织领导。 工业和信息化部、国家机关事务管理局、国家能源局建立协调机制,强化在政策、标准、行业管理等方面的沟通协作,加强对地方相关工作的指导。 各地工业和信息化、机关事务、能源主管部门要充分认识绿色数据中心建设的重要意义,结合实际制定相关政策措施,充分发挥行业协会、产业联盟等机构的桥梁纽带作用,切实推动绿色数据中心建设。 (二)加强行业监管。 在数据中心重点应用领域和地区,了解既有数据中心绿色发展水平,研究数据中心绿色发展现状。 将重点用能数据中心纳入工业和通信业节能监察范围,督促开展节能与绿色化改造工程。 推动建立数据中心节能降耗承诺、信息依法公示、社会监督和违规惩戒制度。 遴选绿色数据中心优秀典型,定期发布《国家绿色数据中心名单》。 充分发挥公共机构特别是党政机关在绿色数据中心建设的示范引领作用,率先在公共机构组织开展数据中心绿色测评、节能与绿色化改造等工作。 (三)加强政策支持。 充分利用绿色制造、节能减排等现有资金渠道,发挥节能节水、环境保护专用设备所得税优惠政策和绿色信贷、首台(套)重大技术装备保险补偿机制支持各领域绿色数据中心创建工作。 优先给予绿色数据中心直供电、大工业用电、多路市电引入等用电优惠和政策支持。 加大政府采购政策支持力度,引导国家机关、企事业单位优先采购绿色数据中心所提供的机房租赁、云服务、大数据等方面服务。 (四)加强公共服务。 整合行业现有资源,建立集政策宣传、技术交流推广、人才培训、数据分析诊断等服务于一体的国家绿色数据中心公共服务平台。 加强专家库建设和管理,发挥专家在决策建议、理论指导、专业咨询等方面的积极作用。 持续发布《绿色数据中心先进适用技术产品目录》,加快创新成果转化应用和产业化发展。 鼓励相关企事业单位、行业组织积极开展技术产品交流推广活动,鼓励有条件的企业、高校、科研院所针对绿色数据中心关键和共性技术产品建立实验室或者工程中心。 (五)加强国际交流合作。 充分利用现有国际合作交流机制和平台,加强在绿色数据中心技术产品、标准制定、人才培养等方面的交流与合作,举办专业培训、技术和政策研讨会、论坛等活动,打造一批具有国际竞争力的绿色数据中心,形成相关技术产品整体解决方案。 结合“一带一路”倡议等国家重大战略,加快开拓国际市场,推动优势技术和服务走出去。 结语 据悉,在数据中心当前的后期运营,能耗是最大成本,占比超过50%。 降低能耗效率(PUE)值,一直是业界相关部门关心的重点。 工信部在2017年4月发布的《关于加强“十 三五”信息通信业节能减排工作的指导意见》中指出:“十二五”期间新建大型数据中心的能耗效率(PUE)要普遍低于1.5;到2020年,新建大型、超大型数据中心的能耗效率(PUE)值必须达到1.4 以下。 去年3月,工信部首次公布的《全国数据中心应用发展指引》中称:全国超大型数据中心平均PUE(平均电能使用效率)为1.50,大型数据中心平均PUE为1.69。 而根据“十三五规划”,到2020年,新建大型云计算数据中心PUE值将不得高于1.4。 如今,三部门联手针对绿色数据中心建设进一步提出了明确的指导意见。 在这样的大背景下,数据中心运营商如何运用新技术、新架构降低能源降耗,实现数据中心的绿色发展,将成为行业的关注热点,与此同时,节能降耗的大趋势之下,也将带来更多的市场机遇。

什么是绿色数据中心?建设路径、实用标准、实践案例

绿色数据中心,是未来数据中心建设的新趋势,旨在提升算力效率的同时,降低能耗,最大化能源利用效益。 它涵盖了节能技术的运用、可再生能源的整合,以及数据中心从选址到运营的全生命周期管理。 《绿色数据中心评价规范》由深圳市市监局发布,为绿色数据中心的建设提供了清晰的指导框架,包括术语定义、评价体系、等级划分、节能指标等,适用于各类规模和业务领域的数据中心,如运营商、互联网、公共机构等。 绿色数据中心的建设路径分为选址、设计与建设、供配电优化、运营管理和降碳五个关键步骤。 选址时,需考虑能源利用效率和自然条件,采用可再生能源;设计上,灵活扩容,避免资源浪费;供配电系统则通过智能化和绿色电力技术提高能效。 在运营阶段,节能理念贯穿始终,通过智能运维、IT设备优化选型等手段,提高整体能效,降低PUE值,减少碳排放。 以工商银行为例,其绿色数据中心建设策略包括:加强规划设计,适应业务需求的灵活性;采用绿色低碳技术,如预制化模块化机房,集成高效能设备和节能技术;并推进基础设施智能运营管理,通过DCIM系统实现能效调优,引入智能巡检机器人提升运维效率。 这些举措不仅提升了数据中心的运营效率,也大大减少了碳足迹。 绿色数据中心的降碳路径强调了可再生能源的广泛应用,比如风能和太阳能,同时通过参与碳交易,实现碳排放的抵消。 在选址时优先考虑可再生能源丰富的地区,通过绿色电力证书等方式,实现对绿色能源的使用。 总的来说,绿色数据中心建设是一场能源效率与可持续性的革命,旨在实现数据中心运营的高效、环保与经济性。 通过科学规划、技术创新和智能管理,我们朝着一个更加绿色、可持续的未来迈进。

绿色数据中心,应该从哪些方面考虑节能降耗?

一是机房规划与设计。 在机房规划的过程中,要充分考虑节能的可能和空间。 影响数据中心能耗的因素除电源、UPS和空调的配置之外,还有更多因素需要考虑,因此在规划建设数据中心机房时,需要全面考量。 二是IT设备与技术。 数据中心真正的“用户”是IT设备,不应该忽视IT设备的工作温度和湿度。 如果选用了对工作温度和湿度都很敏感的IT设备,就不得不再花费大量的人力、物力去建立和维护耗能很大的空调保障系统。 除了工作温度和湿度,IT设备自身的能效比也需要关注。 IT设备能效比=IT设备每秒的数据处理流量或每秒的数据吞吐量/IT设备的功耗。 IT设备的能效比越高,意味着IT设备每消耗1瓦的电能,所能处理、存储和交换的数据量越大。 较高的IT设备能效比带来的一个好处是,可以大幅度地降低与数据中心机房配套的UPS、空调系统的容量及功耗,从而达到节能、节省投资和节省机房安装面积的目的。 西信最新的PUE值是1.6以内,远领先于国内平均水平。

数据中心能耗指标

数据中心能耗指标主要是用于评估数据中心的能源利用效率和节能性能。以下是一些常见的数据中心能耗指标:电能利用效率、碳排放量、能效比、能源回收率、负载率。

1、电能利用效率(PUE):PUE是数据中心能耗评价中最常用的指标,它是用来衡量数据中心能源消耗的效率。PUE值的计算公式为:总设施能耗(千瓦时)/IT设备能耗(千瓦时)。理想的PUE值越低,表示数据中心的能源利用效率越高。

2、碳排放量:碳排放量是指数据中心在运行过程中产生的二氧化碳排放量。较低的碳排放量表明数据中心对环境的影响较小。

3、能效比(CUE):CUE是数据中心制冷系统能耗评价的一个重要指标,它是制冷系统总能耗与IT设备能耗之比。CUE值越低,表示制冷系统的能耗越低,效率越高。

4、能源回收率(ER):能源回收率是指数据中心在制冷、散热等过程中回收再利用能源Total Energy的比率。ER值越高,表示数据中心的能源回收效果越好。

5、负载率:负载率是指数据中心的实际运行负载与设计负载之间的比率。较高的负载率可能导致数据中心能耗较高,而较低的负载率可能意味着数据中心能源利用不充分。

数据中心idc机房建设标准

数据中心idc机房建设标准为:装饰要求、供配电系统要求、空调新风系统要求、防雷接地系统要求、动力环境监控系统要求、消防报警系统要求等。

1、装饰要求

机房应采用防尘、防潮、防静电、抗腐蚀、易清洁的材料,如抗静电地板、微孔天花和机房墙板等。同时,为了确保机房内的温度和湿度适宜,应采用保温、隔热、通风等措施。

2、供配电系统要求

机房应配备可靠的供配电系统,包括市电输入、UPS电源、发电机组等。其中,UPS电源应能够满足机房内所有设备的电力需求,并且具有足够的容量和备份能力。此外,机房内的电源插座和接线板等应符合安全标准,防止过载或短路。

3、空调新风系统要求

机房应配备精密空调,确保机房内温度和湿度适宜,同时新风换气系统应能够保持机房内空气流通,排除湿气和废气。

4、防雷接地系统要求

机房应配备电源防雷击抗浪涌保护、等电位连接、静电泄放、接地系统等,确保设备的安全运行和操作人员的安全。

5、动力环境监控系统要求

机房应配备环境监控系统,对机房内的温度、湿度、水浸、烟雾等进行实时监测和记录,及时发现异常情况并采取相应措施。

6、消防报警系统要求

机房应配备消防报警系统,包括烟感、温感等探测器和灭火器材等。同时,灭火器材的种类和数量应根据机房内的设备类型和数量来确定。

【泛达从细处着手 关注绿色数据中心综合布线】绿色数据中心建设

数据中心是企业最核心的IT资源,当员工无法顺利读取服务器与存储设备上的数据时,企业的运转流程将处于搁置状态;数据中心是企业最繁忙的信息枢纽,当企业无法负担相应的基础设施与能耗成本时,企业的信息化进程会停滞不前。 正因如此,绿色、安全、可管理、可扩展才成了数据中心建设与优化的目标。 催“绿”数据中心 如、果说技术革新能敏感地体现用户需求的变化,并经由应用层、网络层逐级传递至物理层,这是否可以推断:综合布线领域的技术触角会是最迟钝的?答案恰恰相反。 物理层基础设备的生命周期往往在10~15年之间,而应用层与网络层的软硬件必须3~5年更新一次。 正因为生命周期长,如何以一代产品去支持3~5代应用层产品的更新换代?这就要求综合布线领域更需提早洞察10年后的技术趋势,预先为未来的用户需求打好完美的地基。 刘保华:随着非结构化数据的大量涌现,新一代数据中心和传统数据中心有了显著的不同。 以新浪背后的数据中心为例,它需要处理音视频、邮件信息等大量非结构化数据,这要求新的数据中心有着特别大的吞吐量和很宽的带宽。 我想问的是,面对数据中心的新需求,泛达公司有着怎样的技术准备,来应对这样的变化? Michael :作为结构化布线厂商,我们需要做的就是紧跟甚至超前于这个行业的发展,去对一些新的应用做出反应。 六年前,在6类标准没有出来之前,泛达已经率先向市场推出6类。 包括之后的6A类、万兆产品等,我们都在标准甚至基于万兆的网络芯片出来之前,就已经在面世了。 而对于新浪来说,数据类型的变化也就3~5年的时间。 在数据中心设计之初有没有考虑到这些问题,之后有没有考虑到为客户提供便利的扩展性,这是非常重要的。 首先,基于此,泛达主要有两方面的考虑:一方面,保持技术的领先性,通过与行业协会、行业标准制定委员会和包括网络厂商、应用层厂商在内的行业领先厂商紧密结合,在研发上对整个市场趋势进行清晰的研究和准确的判断,并最终将研发结果实施到产品上;另一方面,泛达公司会在所有产品线的设计上,充分考虑到用户将来的可扩展性、可管理性。 比如去年我们推出两款新的产品,一个是交换机机柜,一个是服务器机柜,都是针对思科的95系列、65系列交换机和IBM刀片服务器这些高端设备而设计的。 我们在美国跟他们的研发中心进行互相交流,收取他们的客户反馈,也收取我们的客户反馈,最后研发出产品,并最终拿到IBM和思科的产品认证。 其次,非结构化数据对布线企业来说,并不是一个有效的划分方法。 非结构化数据的传输需要高带宽的支持,我们不少行业客户正有着这样的需求,比如医疗行业经常需要存储和传输CT图片等数据,因此需要高带宽的光纤和铜缆。 但是新浪有非结构化数据,医疗行业也有非结构化数据,怎么解决他们各自的问题,这才是布线企业要做的事情。 很多业界同行,一直在讨论万兆、6A、7类这些东西,泛达讨论的很少,并不是说泛达在这方面不强――有一个数据,6类的传输速率是250兆,我们大多数6类产品都可以达到300兆,这就为客户大容量的传输提供了冗余。 但是你看到我们泛达在国内更多谈到的是可管理性、可扩展性、安全性、绿色。 刘保华:围绕数据中心的绿色技术是这两年的大热点,作为物理层的解决方案提供商,泛达综合数据中心解决方案包含了哪些层面的关键技术,能使数据中心在建设和运营过程中,提高效率并降低能耗呢? Michael :如果你考察过数据中心的布线状况,你一定会发现很多中国的IT经理非常爱买机柜,而不喜欢开放式机架,因为他们认为把错综复杂的线藏在柜子里是美观的,里面再怎么乱都没有关系。 但事实上藏在柜子里就会有很大问题,泛达在美国推广开放式机架的解决方案有很多年了。 经验告诉我们,机房防尘工作一般是做得不错的,它的洁净度完全可以满足开放式机架的要求。 现在随着节能减排、绿色IT的推行,把线藏在柜子里的做法是不可取的。 尤其是随着刀片式服务器的大量应用,散热就将很成问题,散热不通畅就可导致耗电量增大。 有一个统计数据说明:在数据中心,你的建设成本其实只是总成本的10%~20%,更多的成本是花在将来的维护费用和电费上的。 从物系层来说,布线企业大多数的产品都是无源产品,那我们凭什么说节能?事实上,我们所说的节能首先就是我们可以用最小的空间达到最大的应用,以节约空间。 第二点也是最主要的,我们帮助数据中心在建设之初就规划好这些线缆,并且使用一些可管理性的产品。 如果不这样,天花板、地板都会成为密密麻麻的蜘蛛网,时间一长就会乱,会阻止冷热空间的对流。 当空气被阻隔时,你就不能达到很好的物理制冷效果。 一旦设备升温,就会耗更多的电量。 这就是我们所说的物理层的节能减排。 我们打造的标准的数据中心其实是这样的:屋子两边的热空气从上往下,冷风由制冷设备从正中间的地板吹出来,形成整个空气的循环系统。 服务器都应是背对背,而不是面对面的,也是为形成这样一个循环。 我们做的机柜,门孔是传统门孔的两倍,主要帮助空气流动。 当然很多人说这很简单,但泛达是细微之处见功夫。 之前,思科的技术工程师也跟我们交流过,他们发觉往往在一个数据中心里,因为你用的是一排机柜,里面有很多交换机,它们之间是以机柜的隔板相隔的。 他们发觉问题在于当热风过来的时候,理论上应该冷风进去,但热风出来以后往往跑到另外一个机柜里,另外一个机柜要冷风,实际上是隔壁的机柜的热风进去了,因为它们靠的太近。 所以我们针对思科客户的这样一个反馈,根据思科提供给我们的意见,我们在这上面又做了改进,有一个空气倒流槽。 辅助好管家 通过对IT经理做过的调查,他们反映在数据中心的结构化布线这方面,最令他们头疼的是可管理性问题。 刘保华:对于即将建设数据中心的企业,泛达公司如何帮助IT经理管理好他们的数据中心? Michael :可管理性非常重要,我们有一系列的措施来帮助IT经理做一个好管家。 例如,我们有一些物理层的电子配线架系统,能够帮助客户自动、时时地记录每一个连接的变化。 同时,每一个变化都会在电脑上自动更新,而不需要客户任何反馈;有任何变化,系统也会以电子邮件或者短消息的形式通知IT经理。 另外,可能并不是每个客户都能承受电子配线架的成本,它的价格可能是普通的配线系统的三四倍。 对此,我们会有比较经济的物理解决方案,第一个就是色彩化、模块化管理,我们的跳线有六种颜色,我们的模块有11种颜色;第二个,泛达的解决方案可以打印标签,即通过桌式打印机和手提式打印机打印标签。 我们一般建议客户,比如说一个简单的应用,如果我喜欢红色、绿色和黄色,就可以用红色代表数据,绿色代表语音,黄色代表备份。 比如说刘总编你的工位是在A大楼二层的第三个桌子,那可能我就在机房和在你的应用点的面板上(在你桌子上有一个面板输出口)打上A-2-3的标签。 如果你的电脑发生宕机,IT经理能以最快速度找到原因。 另外,安全性的管理从一开始就特别重要。 我们遇到过美国的一家保险公司,它的网络设备在一次恶劣天气中被雷电瞬间击穿,但它仍处于保修期的网络设备却被厂商拒绝保修,为什么呢?因为用户的设备没有得到科学的接地,产品保修书中不承诺因安装不好导致的损坏。 为了避免用户遭遇这样的情况,泛达就在接地上为客户考虑得很详尽。 我们有一套集成的、已经和机柜完全合为一体的接地解决方案,以方便客户去运用。 刘保华:现在很多企业的数据中心都不是从零开始的,不是等着重新建立一个虚拟化数据中心。 实际上布线也遇到这样的问题。 如果想在一个传统的企业布线系统上,增加一些新的管理办法的话,他们如何提高这种管理能力呢? Michael :如果一个现有企业已经有机房了,但是它希望有一个小的改造,让它更可管理、可维护,那么首先从物理角度说,模块不可能改,因为都是7×24小时连接的。 我认为泛达在这方面就有些宜家家居的感觉了,你可以买一两件东西点亮你整个数据中心的环境。 可以有以下几点可以做:第一,大多数国内客户都用的是白色模块,我建议可以用一下泛达的标签和打印机,重新对一些标识做一些新的界定。 第二,我建议用户做一些接地。 第三,建议使用一些以太网供电(PoE)的解决方案。 如果机房的交换机本来就是普通的交换机,不是思科或北电的供电交换机,在这种情况下,你只需要加以太网供电的配线架。 当你的跳线从思科的交换机出来之后进到我们的配线架,再从我们的配线架出去连到你的AT的时候,就带电了。 这给了客户极大的灵活性和可管理性。 第四,可以选择更新一些跳线,或者购买泛达的理线器。 泛达的理线机不管对于光缆还是光纤,都是严格地按照弯曲半径的标准来制作的。 刘保华:你认为未来几年布线这块市场发展趋势是怎样的?新一代数据中心开始发展的时候,原来是分布式的布线,以后可能就是集中式的。 你认为这对布线技术上的发展会带来什么影响?泛达为此做了哪些技术储备? Michael :目前整个IT行业的潮流就是数据大集中,比如HP之前就把全球的53个数据中心整合成4个数据中心以真正实现可管理性和高效的安全性。 在这个大背景下,各个厂商都有其相关动作去支持这样的行业趋势,比如刀片式服务器的产生、高密度的交换机的产生。 但对泛达来说,我们认为新一代数据中心就是一个高集中、高密度、高带宽、高速率的7×24小时不间断运作的数据中心,我们要做的是一个可扩展性很强的新一代数据中心物理层架构。 所以泛达在数据中心相关的物理层解决方案里,会有包括万兆、光纤、6A在内的高带宽产品。 我们正在研讨是不是也研究一些模块化数据中心的物理层架构,因为基于标准可以不断地添加模块来满足用户将来的需求。 我们会常年保持与IBM、思科的商业合作,并持续将每年销售收入的10%投入到研发中,以保证我们在技术上于这个行业中永远领先。 战略投资中国 泛达公司是网络布线行业第一个在全球范围内推广客户体验中心的公司,并一直采取先培育市场、再推广品牌的战略,可见泛达非常重视对市场的培育和与用户的互动。 在中国,泛达不仅已于2006年在上海成立了客户体验中心,并且计划将这套经验移植到北京、广州、成都,配合原有的销售办事处。 同时,在中国,泛达建立了顶级联盟阵容(比如与思科、APC等公司的合作),为用户提供一体化基础设施方案。 接下来,这家主营中高端产品的跨国布线企业将如何布局中国市场? 刘保华:接下来在中国市场策略上,泛达是怎么考虑的? Michael :对泛达来说,目前有两条产品线,一条是中高端的产品,一条是中低端产品。 但这不代表中低端产品不好,而是相对来说它们更能满足对数据安全性要求不那么高、对价格敏感度比较高的客户。 高端市场往往是用户直接面对面的市场,这时需要我们能提供差异化的服务,包括更好的物流、技术支持、售前售后、全球能力以及好的战略合作伙伴关系等。 我们现在的渠道架构就是你所说的亚直销。 我们现在所有的产品都是通过分销销售,分销再卖给集成商,集成商集了方案之后再卖给最终用户。 这是比较典型和传统的适应中高端客户的定位、销售模式。 对于我们定义的中低端市场,我们目前正在做这样一个渠道计划,以配合相关的产品和解决方案。 记者手记:于细微处见功夫 细微之处,易于遗漏于指缝之间,但却往往成为点睛的最后一笔。 当年,已创下日销售量最高纪录的高露洁牙膏,苦苦思索如何让利润再上一个台阶。 一位员工“将牙膏口直径增加1mm”的建议,使用户更加方便,也轻松地赢过了许多复杂而庞大的促销计划。 关注细节,绝不是小家子气的行为,而是一种大气、成熟、严谨、沉稳的企业行为。 重视细节,更显示出当今分工精细的社会的先进性。 做一行专一行,是企业和社会人珍视的行为准则。 当整个行业发展处在从粗犷到集约型发展的道路上时,在数据中心和核心IT部门极力完成从成本中心到利润中心的转变时,有效地进行资源配置,科学地进行管理,合理地节约成本,本身就是一种贡献。 正如Michael 所说,把机柜的通气孔再钻大一倍,设计好冷热循环系统,科学的接地系统,用模块锁锁住闲置的机器接口,色彩化管理,线缆标志打印机,这些都是泛达公司于细微之处见功夫的例证。 在数据中心的建设过程中,缜密地选择良好的综合布线系统,从物理层开始优化,确实能以良好的开始获得大半的成功。

数据中心电能使用EEUE分析

世界能源委员会1995年对能源效率的定义为:减少提供同等能源服务的能源投入。 对于能耗居高不下的数据中心,研究提高能源效率具有深远的社会效益和经济效益。 除了能源效率之外,数据中心还有多项其他性能指标,按照国际标准组织ISO的定义统称为关键性能指标,或称为关键绩效指标,研究这些指标对于数据中心同样具有十分重要的意义。 在已经颁布的数据中心性能指标中最常见的是电能使用效率PUE。 在我国,PUE不但是数据中心研究、设计、设备制造、建设和运维人员最为熟悉的数据中心能源效率指标,也是政府评价数据中心工程性能的主要指标。 除了PUE之外,2007年以后还出台了多项性能指标,虽然知名度远不及PUE,但是在评定数据中心的性能方面也有一定的参考价值,值得关注和研究。 PUE在国际上一直是众说纷纭、莫衷一是的一项指标,2015年ASHRAE公开宣布,ASHRAE标准今后不再采用PUE这一指标,并于2016年下半年颁布了ASHRAE 90.4标准,提出了新的能源效率;绿色网格组织(TGG)也相继推出了新的能源性能指标。 对PUE和数据中心性能指标的讨论一直是国际数据中心界的热门议题。 鉴于性能指标对于数据中心的重要性、国内与国际在这方面存在的差距,以及在采用PUE指标过程中存在的问题,有必要对数据中心的各项性能指标,尤其是对PUE进行深入地研究和讨论。 1.性能指标 ISO给出的关键性能指标的定义为:表示资源使用效率值或是给定系统的效率。 数据中心的性能指标从2007年开始受到了世界各国的高度重视,相继推出了数十个性能指标。 2015年之后,数据中心性能指标出现了较大变化,一系列新的性能指标相继被推出,再度引发了国际数据中心界对数据中心的性能指标,尤其是对能源效率的关注,并展开了广泛的讨论。 2.PUE 2.1PUE和衍生效率的定义和计算方法 2.1.1电能使用效率PUE TGG和ASHRAE给出的PUE的定义相同:数据中心总能耗Et与IT设备能耗之比。 GB/T.3—2016给出的EEUE的定义为:数据中心总电能消耗与信息设备电能消耗之间的比值。 其定义与PUE相同,不同的是把国际上通用的PUE(powerusage effectiveness)改成了EEUE(electricenergy usage effectiveness)。 国内IT界和暖通空调界不少专业人士对于这一变更提出了不同的看法,根据Malone等人最初对PUE的定义,Et应为市电公用电表所测量的设备总功率,这里的Et就是通常所说的数据中心总的设备耗电量,与GB/T.3—2016所规定的Et应为采用电能计量仪表测量的数据中心总电能消耗的说法相同。 笔者曾向ASHRAE有关权威人士咨询过,他们认为如果要将“power”用“electricenergy”来替代,则采用“electricenergy consumption”(耗电量)更准确。 显然这一变更不利于国际交流。 虽然这只是一个英文缩写词的变更,但因为涉及到专业术语,值得商榷。 ISO给出的PUE的定义略有不同:计算、测量和评估在同一时期数据中心总能耗与IT设备能耗之比。 2.1.2部分电能使用效率pPUE TGG和ASHRAE给出的pPUE的定义相同:某区间内数据中心总能耗与该区间内IT设备能耗之比。 区间(zone)或范围( boundary)可以是实体,如集装箱、房间、模块或建筑物,也可以是逻辑上的边界,如设备,或对数据中心有意义的边界。 ISO给出的pPUE的定义有所不同:某子系统内数据中心总能耗与IT设备总能耗之比。 这里的“子系统”是指数据中心中某一部分耗能的基础设施组件,而且其能源效率是需要统计的,目前数据中心中典型的子系统是配电系统、网络设备和供冷系统。 2.1.3设计电能使用效率dPUE ASHRAE之所以在其标准中去除了PUE指标,其中一个主要原因是ASHRAE认为PUE不适合在数据中心设计阶段使用。 为此ISO给出了设计电能使用效率dPUE,其定义为:由数据中心设计目标确定的预期PUE。 数据中心的能源效率可以根据以下条件在设计阶段加以预测:1)用户增长情况和期望值;2)能耗增加或减少的时间表。 dPUE表示由设计人员定义的以最佳运行模式为基础的能耗目标,应考虑到由于数据中心所处地理位置不同而导致的气象参数(室外干球温度和湿度)的变化。 2.1.4期间电能使用效率iPUE ISO给出的期间电能使用效率iPUE的定义为:在指定时间测得的PUE,非全年值。 2.1.5电能使用效率实测值EEUE-R GB/T.3—2016给出的EEUE-R的定义为:根据数据中心各组成部分电能消耗测量值直接得出的数据中心电能使用效率。 使用EEUE-R时应采用EEUE-Ra方式标明,其中a用以表明EEUE-R的覆盖时间周期,可以是年、月、周。 2.1.6电能使用效率修正值EEUE-X GB/T.3—2016给出的EEUE-X的定义为:考虑采用的制冷技术、负荷使用率、数据中心等级、所处地域气候环境不同产生的差异,而用于调整电能使用率实测值以补偿其系统差异的数值。 2.1.7采用不同能源的PUE计算方法 数据中心通常采用的能源为电力,当采用其他能源时,计算PUE时需要采用能源转换系数加以修正。 不同能源的转换系数修正是评估数据中心的一次能源使用量或燃料消耗量的一种方法,其目的是确保数据中心购买的不同形式的能源(如电、天然气、冷水)可以进行公平地比较。 例如,如果一个数据中心购买当地公用事业公司提供的冷水,而另一个数据中心采用由电力生产的冷水,这就需要有一个系数能使得所使用的能源在相同的单位下进行比较,这个系数被称为能源转换系数,它是一个用来反映数据中心总的燃料消耗的系数。 当数据中心除采用市电外,还使用一部分其他能源时,就需要对这种能源进行修正。 2.1.8PUE和EEUE计算方法的比较 如果仅从定义来看,PUE和EEUE的计算方法十分简单,且完全相同。 但是当考虑到计算条件的不同,需要对电能使用效率进行修正时,2种效率的计算方法则有所不同。 1)PUE已考虑到使用不同能源时的影响,并给出了修正值和计算方法;GB/T.3—2016未包括可再生能源利用率,按照计划这一部分将在GB/T.4《可再生能源利用率》中说明。 2)PUE还有若干衍生能源效率指标可供参考,其中ISO提出的dPUE弥补了传统PUE的不足;EEUE则有类似于iPUE的指标EEUE-Ra。 3)EEUE分级(见表1)与PUE分级(见表2)不同。 4)EEUE同时考虑了安全等级、所处气候环境、空调制冷形式和IT设备负荷使用率的影响。 ASHRAE最初给出了19个气候区的PUE最大限值,由于PUE已从ASHRAE标准中去除,所以目前的PUE未考虑气候的影响;ISO在计算dPUE时,要求考虑气候的影响,但是如何考虑未加说明;PUE也未考虑空调制冷形式和负荷使用率的影响,其中IT设备负荷率的影响较大,应加以考虑。 2.2.PUE和EEUE的测量位置和测量方法 2.2.1PUE的测量位置和测量方法 根据IT设备测点位置的不同,PUE被分成3个类别,即PUE1初级(提供能源性能数据的基本评价)、PUE2中级(提供能源性能数据的中级评价)、PUE3高级(提供能源性能数据的高级评价)。 PUE1初级:在UPS设备输出端测量IT负载,可以通过UPS前面板、UPS输出的电能表以及公共UPS输出总线的单一电表(对于多个UPS模块而言)读取。 在数据中心供电、散热、调节温度的电气和制冷设备的供电电网入口处测量进入数据中心的总能量。 基本监控要求每月至少采集一次电能数据,测量过程中通常需要一些人工参与。 PUE2中级:通常在数据中心配电单元前面板或配电单元变压器二次侧的电能表读取,也可以进行单独的支路测量。 从数据中心的电网入口处测量总能量,按照中等标准的检测要求进行能耗测量,要求每天至少采集一次电能数据。 与初级相比,人工参与较少,以电子形式采集数据为主,可以实时记录数据,预判未来的趋势走向。 PUE3高级:通过监控带电能表的机架配电单元(即机架式电源插座)或IT设备,测量数据中心每台IT设备的负载(应该扣除非IT负载)。 在数据中心供电的电网入口处测量总能量,按照高标准的检测要求进行能耗测量,要求至少每隔15min采集一次电能数据。 在采集和记录数据时不应该有人工参与,通过自动化系统实时采集数据,并支持数据的广泛存储和趋势分析。 所面临的挑战是以简单的方式采集数据,满足各种要求,最终获取数据中心的各种能量数据。 对于初级和中级测量流程,建议在一天的相同时间段测量,数据中心的负载尽量与上次测量时保持一致,进行每周对比时,测量时间应保持不变(例如每周周三)。 2.2.2EEUE的测量位置和测量方法 1)Et测量位置在变压器低压侧,即A点; 2)当PDU无隔离变压器时,EIT测量位置在UPS输出端,即B点; 3)当PDU带隔离变压器时,EIT测量位置在PDU输出端,即C点; 4)大型数据中心宜对各主要系统的耗电量分别计量,即E1,E2,E3点; 5)柴油发电机馈电回路的电能应计入Et,即A1点; 6)当采用机柜风扇辅助降温时,EIT测量位置应为IT负载供电回路,即D点; 7)当EIT测量位置为UPS输出端供电回路,且UPS负载还包括UPS供电制冷、泵时,制冷、泵的能耗应从EIT中扣除,即扣除B1和B2点测得的电量。 2.2.3PUE和EEUE的测量位置和测量方法的差异 1)PUE的Et测量位置在电网输入端、变电站之前。 而GB/T.3—2016规定EEUE的Et测量位置在变压器低压侧。 数据中心的建设有2种模式:①数据中心建筑单独设置,变电站自用,大型和超大型数据中心一般采用这种模式;②数据中心置于建筑物的某一部分,变电站共用,一般为小型或中型数据中心。 由于供电局的收费都包括了变压器的损失,所以为了准确计算EEUE,对于前一种模式,Et测量位置应该在变压器的高压侧。 2)按照2.2.2节第6条,在计算EIT时,应减去机柜风机的能耗。 应该指出的是,机柜风机不是辅助降温设备,起到降温作用的是来自空调设备的冷空气,降温的设备为空调换热器,机柜风机只是起到辅助传输冷风的作用,因此机柜风机不应作为辅助降温设备而计算其能耗。 在GB/T.3征求意见时就有人提出:机柜风机的能耗很难测量,所以在实际工程中,计算PUE时,EIT均不会减去机柜风机的能耗。 在美国,计算PUE时,机柜风机的能耗包括在EIT中。 3)PUE的测点明显多于GB/T.3—2016规定的EEUE的测点。 2.3.PUE存在的问题 1)最近两年国内外对以往所宣传的PUE水平进行了澄清。 我国PUE的真实水平也缺乏权威调查结果。 GB/T.3—2016根据国内实际状况,将一级节能型数据中心的EEUE放宽到1.0~1.6,其上限已经超过了国家有关部委提出的绿色数据中心PUE应低于1.5的要求,而二级比较节能型数据中心的EEUE规定为1.6~1.8,应该说这样的规定比较符合国情。 2)数据中心总能耗Et的测量位置直接影响到PUE的大小,因此应根据数据中心建筑物市电变压器所承担的荷载组成来决定其测量位置。 3)应考虑不同负荷率的影响。 当负荷率低于30%时,不间断电源UPS的效率会急剧下降,PUE值相应上升。 对于租赁式数据中心,由于用户的进入很难一步到位,所以数据中心开始运行后,在最初的一段时间内负荷率会较低,如果采用设计PUE,也就是满负荷时的PUE来评价或验收数据中心是不合理的。 4)数据中心的PUE低并非说明其碳排放也低。 完全采用市电的数据中心与部分采用可再生能源(太阳能发电、风电等),以及以燃气冷热电三联供系统作为能源的数据中心相比,显然碳排放指标更高。 数据中心的碳排放问题已经引起国际上广泛地关注,碳使用效率CUE已经成为数据中心重要的关键性能指标,国内对此的关注度还有待加强。 5)GB/T.3—2016规定,在计算EIT时,应减去机柜风机的耗能。 关于机柜风机的能耗是否应属于IT设备的能耗,目前国内外有不同的看法,其中主流观点是服务器风机的能耗应属于IT设备的能耗,其原因有二:一是服务器风机是用户提供的IT设备中的一个组成部分,自然属于IT设备;二是由于目前服务器所采用的风机基本上均为无刷直流电动机驱动的风机(即所谓EC电机),风机的风量和功率随负荷变化而改变,因此很难测量风机的能耗。 由于数据中心风机的设置对PUE的大小影响很大,需要认真分析。 从实际使用和节能的角度出发,有人提出将服务器中的风机取消,而由空调风机取代。 由于大风机的效率明显高于小风机,且初投资也可以减少,因此这种替代方法被认为是一个好主意,不过这是一个值得深入研究的课题。 6)国内相关标准有待进一步完善。 GB/T.3—2016《数据中心资源利用第3部分:电能能效要求和测量方法》的发布,极大地弥补了国内标准在数据中心电能能效方面的不足;同时,GB/T.3—2016标准颁布后,也引起了国内学术界和工程界的热议。 作为一个推荐性的国家标准如何与已经颁布执行的强制性行业标准YD 5193—2014《互联网数据中心(IDC)工程设计规范》相互协调?在标准更新或升级时,包括内容相似的国际标准ISOIEC -2-2016在内的国外相关标准中有哪些内容值得借鉴和参考?标准在升级为强制性国家标准之前相关机构能否组织就其内容进行广泛的学术讨论?都是值得考虑的重要课题。 ASHRAE在发布ASHRAE90.4标准时就说明,数据中心的标准建立在可持续发展的基础上,随着科学技术的高速发展,标准也需要不断更新和创新。 7)PUE的讨论已经相当多,事实上作为大数据中心的投资方和运营方,更关心的还是数据中心的运行费用,尤其是电费和水费。 目前在数据中心关键性能指标中尚缺乏一个经济性指标,使得数据中心,尤其是大型数据中心和超大型数据中心的经济性无法体现。 2.4.PUE的比较 不同数据中心的PUE值不应直接进行比较,但是条件相似的数据中心可以从其他数据中心所提供的测量方法、测试结果,以及数据特性的差异中获益。 为了使PUE比较结果更加公平,应全面考虑数据中心设备的使用时间、地理位置、恢复能力、服务器可用性、基础设施规模等。 3.其他性能指标 3.1.ASHRAE90.4 ASHRAE90.4-2016提出了2个新的能源效率指标,即暖通空调负载系数MLC和供电损失系数ELC。 但这2个指标能否为国际IT界接受,还需待以时日。 3.1.1暖通空调负载系数MLC ASHRAE对MLC的定义为:暖通空调设备(包括制冷、空调、风机、水泵和冷却相关的所有设备)年总耗电量与IT设备年耗电量之比。 3.1.2供电损失系数ELC ASHRAE对ELC的定义为:所有的供电设备(包括UPS、变压器、电源分配单元、布线系统等)的总损失。 3.2.TGG白皮书68号 2016年,TGG在白皮书68号中提出了3个新的能源效率指标,即PUE比(PUEr)、IT设备热一致性(ITTC)和IT设备热容错性(ITTR),统称为绩效指标(PI)。 这些指标与PUE相比,不但定义不容易理解,计算也十分困难,能否被IT界接受,还有待时间的考验。 3.2.1PUE比 TGG对PUEr的定义为:预期的PUE(按TGG的PUE等级选择)与实测PUE之比。 3.2.2IT设备热一致性ITTC TGG对ITTC的定义为:IT设备在ASHRAE推荐的环境参数内运行的比例。 服务器的进风温度一般是按ASHRAE规定的18~27℃设计的,但是企业也可以按照自己设定的服务器进风温度进行设计,在此进风温度下,服务器可以安全运行。 IT设备热一致性表示符合ASHRAE规定的服务器进风温度的IT负荷有多少,以及与总的IT负荷相比所占百分比是多少。 例如一个IT设备总负荷为500kW的数据中心,其中满足ASHRAE规定的服务器进风温度的IT负荷为450kW,则该数据中心的IT设备热一致性为95%。 虽然TGG解释说,IT设备热一致性涉及的只是在正常运行条件下可接受的IT温度,但是IT设备热一致性仍然是一个很难计算的能源效率,因为必须知道:1)服务器进风温度的范围,包括ASHRAE规定的和企业自己规定的进风温度范围;2)测点位置,需要收集整个数据中心服务器各点的进风温度,由人工收集或利用数据中心基础设施管理(DCIM)软件来统计。 3.2.3IT设备热容错性ITTR TGG对ITTR的定义为:当冗余制冷设备停机,或出现故障,或正常维修时,究竟有多少IT设备在ASHRAE允许的或建议的送风温度32℃下送风。 按照TGG的解释,ITTR涉及的只是在出现冷却故障和正常维修运行条件下可接受的IT温度,但是ITTR也是一个很难确定的参数。 ITTR的目的是当冗余冷却设备停机,出现冷却故障或在计划维护活动期间,确定IT设备在允许的入口温度参数下(<32℃)运行的百分比,以便确定数据中心冷却过程中的中断或计划外维护的性能。 这个参数很难手算,因为它涉及到系统操作,被认为是“计划外的”条件,如冷却单元的损失。 3.3.数据中心平均效率CADE 数据中心平均效率CADE是由麦肯锡公司提出,尔后又被正常运行时间协会(UI)采用的一种能源效率。 CADE提出时自认为是一种优于其他数据中心能源效率的指标。 该指标由于被UI所采用,所以直到目前仍然被数量众多的权威著作、文献认为是可以采用的数据中心性能指标之一。 但是笔者发现这一性能指标的定义并不严谨,容易被误解。 另外也难以测量和计算。 该指标的提出者并未说明IT资产效率如何测量,只是建议ITAE的默认值取5%,所以这一指标迄今为止未能得到推广应用。 3.4.IT电能使用效率ITUE和总电能使用效率TUE 2013年,美国多个国家级实验室鉴于PUE的不完善,提出了2个新的能源效率——总电能使用效率TUE和IT电能使用效率ITUE。 提出ITUE和TUE的目的是解决由于计算机技术的发展而使得数据中心计算机配件(指中央处理器、内存、存储器、网络系统,不包括IT设备中的电源、变压器和机柜风机)的能耗减少时,PUE反而增加的矛盾。 但是这2个性能指标也未得到广泛应用。 3.5.单位能源数据中心效率DPPE 单位能源数据中心效率DPPE是日本绿色IT促进协会(GIPC)和美国能源部、环保协会、绿色网格,欧盟、欧共体、英国计算机协会共同提出的一种数据中心性能指标。 GIPC试图将此性能指标提升为国际标准指标。 3.6.水利用效率WUE TGG提出的水利用效率WUE的定义为:数据中心总的用水量与IT设备年耗电量之比。 数据中心的用水包括:冷却塔补水、加湿耗水、机房日常用水。 根据ASHRAE的调查结果,数据中心基本上无需加湿,所以数据中心的用水主要为冷却塔补水。 采用江河水或海水作为自然冷却冷源时,由于只是取冷,未消耗水,可以不予考虑。 民用建筑集中空调系统由于总的冷却水量不大,所以判断集中空调系统的性能时,并无用水量效率之类的指标。 而数据中心由于全年制冷,全年的耗水量居高不下,已经引起了国内外,尤其是水资源贫乏的国家和地区的高度重视。 如何降低数据中心的耗水量,WUE指标是值得深入研究的一个课题。 3.7.碳使用效率CUE TGG提出的碳使用效率CUE的定义为:数据中心总的碳排放量与IT设备年耗电量之比。 CUE虽然形式简单,但是计算数据中心总的碳排放量却很容易出错。 碳排放量应严格按照联合国气象组织颁布的计算方法进行计算统计。

数据中心PUE值是什么 数据中心PUE值研究介绍【详解】

目前,PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。 PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。 PUE值越接近于1,表示一个数据中心的绿色化程度越高。 随着电子信息系统机房IT设备高密度的集成化,解决设备散热及机房散热量日渐趋高的现象开始受到了各界强烈关注。 而根据研究显示,IT/电信目前相关的碳排放已经成为最大的温室气体排放源之一,由此一年产生的碳排放为8.6亿吨,且该领域的排放势头还在随着全球对计算、数据存储和通信技术需求的增长快速上升。 即使人们大力提高设备、机房结构等装置和数据中心的能效,到2020年,全球IT相关碳排放也将达到15.4亿吨。 所以越来越多的人开始关注绿色机房的建设。 目前,PUE(PowerUsageEffectiveness,电源使用效率)值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。 PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。 PUE值越接近于1,表示一个数据中心的绿色化程度越高。 当前,国外先进的数据中心机房PUE值通常小于2,而我国的大多数数据中心的PUE值在2-3之间。 所以国内机房内芯片级主设备1W的功耗会导致总体耗电量达到2-3W,而国外机房内芯片级主设备1W的功耗只会导致总体耗电量为2W以下。 机房建设前期的设计和规划就把节能、环保考虑到,并在设计和规划的过程中达到机房的使用要求的前提下,把机房的PUE值作为机房的设计和规划要求。 用户对PUE值的要求,机房设计满足并说明从几方面可以把机房的设计达到用户的要求。 根据统计数据显示,数据中心的冷却占机房总功耗的40%左右。 机房中的冷却主要是由机房空调负责,所以降低机房空调的耗电量可以有效的降低机房的PUE值。 由于现代电子信息系统机房中的空调负荷主要来自于计算机主机设备、外部辅助设备的发热量,其中服务器、存储、网络等主设备占到设备散热量的80%。 所以随着服务器集成密度的持续增高,服务器机柜设备区就成为了机房内主要的热岛区域。 服务器设备热密度越来越大。 机房下送风空调系统是将抗静电活动地板下空间作为空调系统的送风静压箱,空调机组由通风地板向机柜、设备等热负荷送风。 可是高密度机柜从机柜前面的地板出风口出风。 当冷风送至机柜的中部冷风已经被服务器全部吸收。 所以,机柜的上半部分没有足够的冷量,就会导致机柜上半部分的设备无法正常运行。 现在机房服务器类负荷的最高散热量近年来已攀升至每机柜20KW以上。 原有地板下送风机房精密空调系统理想送风状况下的机房单位面积最大供冷量为4KW/㎡(更大供冷量所配置的空调机组送风量也相应增大,其送风风压足以把地板给吹起来),已无法满足其需求。 上述的问题解决。 机房在设计中静电地板高度的提升,地板出风口的通风率的提高,封闭机柜冷通道。 还可以在用风道上送风和地板下送风结合制冷等方式进行解决。 机房空调的冷量不浪费,有效的利用可以很大的提高空调的利用率。 在实现机房制冷的前提下空调运行也可以节能。 通过空调系统一系列的优化,可以降低整个机房的PUE值。 然而,空调本身的耗电量是最主要的。 所以解决空调自身的耗电量成本降低空调能耗的关键。 机房中采用传统的风冷制冷方式是最耗电的运行方式。 在大的IDC中现在基本上都采用水冷式的机房空调系统,比风冷系统节能20%左右。 但是,我们可以在通过新的空调技术还可以比水冷空调在节能30%以上的空调系统(非电空调)。 非电空调俗称溴化锂空调、吸收式制冷机、燃气空调等,其工作原理是通过采用天然气、城市煤气、发电废热、工业废热、工业废水、太阳能、沼气等任何能产生80℃以上的热能为动力、以溴化锂为冷媒进行热交换,从而降低空调循环水温度,达到制冷目的;但“非电”只是空调本身的制冷不直接用电来运作,但是支持空调运作的后方机组,比如说,风机、水泵、冷却塔都是需要耗电的。 但相对于直接用电来制冷和制热,非电空调对电力的消耗非常小。 所以这种非电技术的意思是,我们无法杜绝用电,但是可以做到大幅度节约用电。 非电空调制冷原理:就是利用溴化锂溶液实现的,即水和溴化锂的二介介质,由于沸点不同而且具有吸水性的原因当加热溴化锂溶液时,水被蒸发,蒸发的水流入蒸发器内蒸发吸热,然后蒸汽被冷凝,再次与溴化锂混合成为溶液。 这些过程中,它被热源加热,然后通过蒸发将需要冷却的一端冷却了,同时冷凝的热量通过室外的冷却塔冷却或送到室内制热等。 这样就实现了用热制冷。 所谓非电技术,就是采用直接由热能来制冷的原理。 传统意义上的电空调,要完成制冷效果,必须由热能到机械能、由机械能到电能、再由电能回到机械能,最后才能到冷能,这其中5次能量转换过程都将排出一定数量的二氧化碳。 因此,从理论上来说非电空调不仅节约了能源,还有效地减少了空调制冷过程中4倍的碳排放。 机房建设中空调系统通过最新的技术,我们可以把空调的能耗占整个机房总能耗的比值控制在15%左右。 这样整个机房的PUE值就可以控制在2以下。 数据中心的UPS电源占机房总功耗的5%左右。 而UPS自身的功率占UPS的7%左右。 而且机房建设的等级越高需要UPS的数量就越多。 比如:一个国标C级的机房配置一台400KVAUPS就可以满足要求,这个机房中的负载没有变化,只是等级从C级变成A级。 但是,UPS就会从一台400KVA变成四台400KVA的UPS。 所以解决UPS的自身功耗也是非常重要的。 如果机房供电的电源质量非常好,UPS的工作方式就可以采用后备式的方式。 正常工作市电通过UPS的旁路直接给负载进行供电,UPS处于备份状态。 市电停电以后,直接转换成UPS电池供电模式。 通过这样的方式可以节约所有UPS的自身功耗的电量。 最后,PUE无论这样变化,都是大于1的乘数因子。 要做到最佳节能,降低服务器等IT设备的功耗,才是最有效的方法。 比如1W的IT设备需要总功耗电量为1.6W。 当降低服务器设备功耗为0.8的时候,数据中心总功耗立即降为0.8×1.6=1.28。 IT设备降低了0.2,而总耗电量降低了0.32。 这就是乘数因子效应。

绿色IT的中心五步走

建立绿色IT中心,有五个步骤。 建立一个绿色的数据中心的第一步,就是先要建立一个更好的监控体制。 建立有能效的审计,要知道什么部件消耗多少电力。 建立监控体制就要要制定一个衡量指标,如果没有一个标准的话,就无法进行改良。 因此最重要的一个环节就是是否能够建立一个衡量指标,怎样创建指标。 在整个数据中心当中,要知道能效的目标是什么,比如说它们到底要消耗多少能源才是我们的目标——在美国目前用的最多的指标也正在慢慢地进入亚洲市场。 这个指标是由绿色网格所开发出来的,是在美国建立的,还有EPA。 但是要清楚的明白,到底是有多少能源是由这个数据中心消耗的?到底有多少是由IT设备消耗的?这样就可以计算出电量的使用情况。 在美国的数据中心的效率,大概是在1.2—1.3左右,但在亚太地区大部分的组织都是在3—4的效率性。 建立绿色IT中心的第二步,就是要转变我们的思维。 为人所熟悉的“摩尔定律”说到:“芯片的晶体管数量约每两年就翻一番。 ”处理器芯片是翻一番,可是对于能耗的处理水平是否能够跟上芯片的翻番水平呢?能耗的处理水平虽然是改善了,但它的改善速度跟处理器晶体管的增长速度却没有保持同样的水平,中间有一个段差距。 导致这样的原因,是因为人们更多关注的是性能。 我们总是谈到性能,但人们所看到更多的是怎么把性能和工作联合在一起,即工作效率的问题。 工作性能提高了,工作效率也应该增加,这是我们的思维要转变的一个观点,也是我们改变对数据中心的认识。 在采购IT数据中心的IT设备的时候,不能单单只关注到它的性能,同时还要关注到它的能耗。 第四步就是考虑将来有什么样的创新方式改变数据中心。 可以使用一些新的技术——比如服务器存储虚拟化,还可以借助整合对整个系统进行更新。 采用虚拟化的前后,空间和服务器的数量有一个很大的变化,数据中心电能消耗的也有明显变化。 这就意味着虚拟化的采用,可以有助于碳管理。 在碳消耗方面所获得的利润,可以理解为对环境的改变。 但在选择采用虚拟化的时候,应该考虑到对物理环境和虚拟环境的同时管理的问题。 建立绿色IT中心的第五步,就是组织的整合。 任何一种新的技术在被采用的时候,对整个系统会带来很多新的变化。 这些变化不仅是技术的本身,还包括整个流程以及整个流程如何进行最大化的收益等方面的内容。 从大企业看中国绿色IT的实施“法则”:有100个CIO,就有100种对绿色IT的理解和作为。 CIO心目中对绿色IT的真实看法和实践,为我们揭示了国内绿色IT的实施“法则”。 在“绿色IT”概念纷纷扰扰的今天,中国的首席信息官(CIO)们心里却有着不同的理解和实践蓝图。 尽管严格而言,但是这些CIO的许多尝试,跟绿色概念似乎相去甚远,“绿”得也不够彻底,但这却是中国目前最为鲜活的绿色实践。 毕竟,只有企业的CIO才知道什么是自己最需要的。 不为“绿色”而绿色,恐怕才是绿色IT在中国的发展之道。 双汇实业集团有限责任公司(下称双汇集团)CIO兼双汇计算机软件有限责任公司总裁刘小兵,自2000年进行双汇集团信息化规划时,心里就打好了“绿”主意,尽管当时还不存在“绿色IT”一说。 双汇集团的“五个一工程”——一套程序(双汇集团自行开发的一个双汇软件平台)、一套人马、一套服务器、一个机房、一个数据库的整体IT规划。 双汇集团每天几千种产品的采购,上万个订单的下达,几千吨货物的流向,近亿元的资金流动,库存的动态治理都可以通过电子商务平台来运行。 同时,“五个一”工程还改变了双汇集团传统“沿街串巷”的落后销售模式,“玩转”了双汇集团80多个法人企业、600多个办事处、120多个分公司、40多个工厂和700多家连锁店的日常运营,以及数千个分销商。 而且,双汇集团的销售额从2003年的100亿元快速跃升到了2007年的300亿元,短短4年里飚升了200%,信息化的“五个一”工程功不可没。 与双汇集团有着异曲同工之妙的内蒙古蒙牛乳业(集团)股份有限公司(以下简称蒙牛集团),也成功地推行了“五个一”工程。 蒙牛集团的CIO杨小波告诉记者:“在蒙牛集团进行‘五个一’改造之前,蒙牛集团在全国有5、6个机房,目前只剩下了1个不到10平米的托管机房”。 以前蒙牛集团仅维护机房和服务器就需要7~8名工程师,机房改造完成后,这些网络工程师全部都可以转向系统应用岗位。 在此同时,服务器锐减了40~50台,耗电也随之锐减。 尽管双汇集团、蒙牛、腾讯、复旦大学的实践,均诞生和收效于绿色概念盛行之前。 但是节省机房、节省服务器、节省耗电、甚至节省人力,无一不与绿色相关。 腾讯为中国目前最大的互联网综合服务公司。 腾讯的2007年财报显示,注册账户数超过7亿,其中活跃用户超过3亿,同时在线人数超过3,000 万,网民每天通过QQ发送的信息数量达数10亿条,腾讯网每日页面访问量也达到4亿以上。 每天都在增长的海量用户对服务器平台的性能和功耗产生了越来越高的要求。 而且广东省的限电措施,也迫使腾讯不得不考虑限制能耗的种种有力措施。 该公司联席首席技术官(CTO)熊明华表示:“腾讯目前已经具备支持1亿用户同时在线的能力,且在同等条件下,支持相同数量级用户所需的服务器仅为同行企业的1/4(腾讯目前拥有大约1万台服务器)。 ”尽管如此,腾讯的电费还是占到了整体成本支出的30%。 腾讯期望在提升服务器效率的同时,并且更绿色更节能。 2008年4月,腾讯与英特尔公司(Intel,下称英特尔)建立联合实验室。 根据协议,腾讯不仅可以率先进行英特尔技术的测试,甚至被允许使用并掌握有利于自身业务发展的技术和产品;另一方面,在联合实验室框架下,腾讯将会评估英特尔公司的动态电源管理、数据中心管理工具(DCMI)、固态驱动(SSD)和基于英特尔Nehalem处理器的服务器平台,并根据需要进行部署。 同在4月份,腾讯还作为“首席测试”,测试性地部署了国际商业机器公司(IBM)即将发布的新型高性能互联网数据中心专用服务器。 而中国电信上海公司(下称上海电信)更是被誉为本土绿色IT应用的典范。 对此,拥有众多项目经验的IBM全球信息科技服务部大中华区数据中心及智能化集成服务产品线经理陈亮有她的解释。 中国的企业对于绿色数据中心的建立分为两个层面:一个是建立基础设施的层面,从关注建设一个数据中心开始,如何让数据中心绿色、节能、高效率。 第二个层面是数据中心已建好,比如之前已经自己建立了物理机房,或者出于整合所有业务的需要,或者出于改造数据中心的需要,在基础设施上做一些软硬件的绿色改造。 对于第一层次的应用,陈亮表示,这些客户在中国有很多,他们正在建自己的数据中心,希望在建的同时不要落后,能够有新的节能高效技术应用在数据中心里。 而中国电信上海公司在绿色的道路上步子迈得相对比较大。 因为拥有众多IDC机房的上海电信,电能的消耗在成本里占据很大份额,这样一来“每年节省20%的能耗成为考核总经理的一项指标。 ”因此,上海电信首先选择“云莲”与“同普”两个机房,进行试点性的能源评估和分析,旨在全面掌握准确的能耗数据,看看到底“绿不绿”。 陈亮和她的团队成员们采用IBM绿色数据中心解决方案中的“数据中心能耗评估服务”(EEA,Energy Efficiency Assessment)对其进行了评估。 根据评估,陈亮为云莲与同普开出了“绿色处方”,一共“4味药”:首先,虚拟化技术的应用将发挥神奇功效。 面积相当,都是600多平方米,分别承载着上百个机柜的运营,而采用虚拟化技术后,每个IDC内机柜的数量可以减少到20个,节能效果不言而喻。 其次,新风系统将使数据中心更环保。 鉴于机房一年4季都需要保持18~22摄氏度和40%~60%的相对湿度,夏天时,上海户外空气温度高于22摄氏度,则新风量可以适当调弱;而在春秋季节,户外气温比较适宜,可以直接利用户外新风进行制冷;到了冬天户外气温很低,需要先用排风系统预热新风,再将预热好的新风引入到机房内。 IBM为此设计了搭建新风系统的具体方案,还预估出了建成后的投资回报。 第三,模拟气流分析(CFD)用以提高空调效率。 CFD是一项结合中国特色的气流分析模式。 工程师可以通过电脑模拟出机房内的气流状况、温度、流向,上海电信得以直观地了解节能改造前后的气流变化,从而选择最为适合的排风制冷模式。 最后,数据中心的装修和布置进一步提升绿色水平。 机房内的墙体封堵与线槽走向等装修布置的改善都可以帮助上海电信降低能耗。 “这也是IBM根据中国客户的实际需求,提出的非常具有中国特色的装修改进方式。 ”陈亮称。 预计这两个机房按照以上4个办法会带来至少30%的能源节约。 上海电信正在紧锣密鼓地按照绿色处方切实实施。 无论如何,在绿色的道路上,中国的CIO们已经开始行动。 即便尝试的路径不同,但是殊途同归。 而结合本土特色的各种绿色探索和实践,尤为值得关注和借鉴。


相关标签: PUE构建可持续和节能的数据基础设施绿色数据中心绿色数据中心建设标准

本文地址:http://www.hyyidc.com/article/15228.html

上一篇:数据中心PUE值的全球趋势探索不同国家和地...
下一篇:数据中心PUE值认证认可卓越能效的行业标准...

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="http://www.hyyidc.com/" target="_blank">好有缘导航网</a>