好有缘导航网

创新技术优化数据中心 PUE 值 (优化科技创新)


文章编号:16270 / 分类:互联网资讯 / 更新时间:2024-06-06 18:45:31 / 浏览:

随着数据中心规模不断扩大,能耗问题日益突出。PUE(Power Usage Effectiveness,电源使用效率)是衡量数据中心能效的重要指标,是数据中心总能耗与IT设备能耗之比。降低 PUE 值可以有效降低数据中心能耗,从而节约成本,减少对环境的影响。

以下是一些创新技术,可以帮助优化数据中心 PUE 值:

液体冷却技术

传统的数据中心采用风冷冷却技术,利用风扇将冷空气吹到服务器上散热。液体冷却技术使用介质(如水或冷媒)直接接触服务器,更有效地带走热量。液体冷却技术可以显著提高冷却效率,减少风扇能耗,从而降低 PUE 值。

人工智能(AI)优化

AI 技术可以用于优化数据中心的冷却系统。AI 可以根据实时数据(如温度、湿度、功耗等)自动调整冷却策略,确保服务器在最佳温度范围内运行,同时最大限度地减少能耗。AI 优化可以提高冷却系统的效率,降低 PUE 值。

可再生能源利用

数据中心可以利用可再生能源,如太阳能或风能,来满足部分或全部用电需求。可再生能源的使用可以减少数据中心对化石燃料的依赖,减少碳排放,同时降低运营成本。可再生能源利用可以有效改善数据中心的 PUE 值和可持续性。

微模块化设计

微模块化设计将数据中心分割成独立的模块,每个模块包含自己的供电、冷却、网络系统。这种设计方式可以提高数据中心的灵活性、可扩展性和能效。通过将高能耗设备集中在特定模块中,可以优化冷却效率,降低 PUE 值。

能效认证

数据中心运营商可以获得第三方认证,证明其数据中心的能效达到特定标准。例如,Uptime Institute 和 Green Grid 等认证机构提供基于 PUE 值和其它能效指标的认证。能效认证可以帮助数据中心运营商展示其对节能的承诺,并吸引注重可持续性的客户。

案例研究

以下是一些成功采用创新技术优化 PUE 值的数据中心案例:

  • Google 的数据中心采用液体冷却技术,PUE 值低至 1.09。
  • 微软的数据中心采用 AI 优化,PUE 值从 1.45 降低到 1.25。
  • 亚马逊的数据中心利用可再生能源,PUE 值低至 1.11。
创新技术优化数据中心PUE值优化科技创新

结论

通过采用创新技术,数据中心运营商可以显著优化 PUE 值,降低能耗,节约成本,减少对环境的影响。液体冷却技术、AI 优化、可再生能源利用、微模块化设计和能效认证等技术可以帮助数据中心提高能效,实现绿色可持续的运营。


看得见的未来:华为发布2024数据中心能源十大趋势

华为引领的未来视界:2024数据中心能源趋势探索

华为的最新洞察力——2024数据中心能源趋势白皮书,如同一幅清晰的画卷,描绘出一个安全、可靠且绿色的数字基石。在这个未来世界中,华为的高可靠性产品与专业化的服务交织,如同坚固的盾牌,确保数据中心的平稳运行。分布式制冷技术的革新,犹如精密的温控守护者,提升着数据中心的稳定性与效率。

创新趋势揭示:

华为的卓越贡献: 三十年的技术沉淀,华为以安全、融合、低碳的解决方案,推动行业进步,塑造独特的竞争优势。

总的来说,华为在数据中心领域的探索和实践,不仅响应了算力需求的激增和数字化转型的挑战,更是对未来绿色、可靠、智能的数据中心生态的有力推动。

现代数据中心六大优化趋势

现代数据中心六大优化趋势 能源成本仍然是数据中心增长最快的费用,据说超过了计算设备本身的成本。 电力使用效率(PUE)和碳使用效率(CUE)是国际公认的指标,与更多其他的定义指标一道,将成为行业标准。 新的数据中心的建设和改造,必须同时应对业务和绿色环保的双重需求。 随着数据中心的成本不断飙升,数据中心管理的重点开始转向优化数据中心基础设施。 在未来几年,如下的一些新的趋势必将影响未来数据中心的决策: (一)数据中心的远程监控关于企业数据中心是否采用外包的争论仍在继续。 企业已决定继续在内部运行IT,并找到了成本有效的使用外部数据中心监控的供应商。 在某些情况下,物理基础设施设备,外部监测和第一级的支持,需要安全访问权限。 需要更多的基础设施防火墙和安全措施,这将增加数据中心的复杂性。 另一方面,由于工作人员工资和工作空间是连续的支出。 此外,一个团队规模的缩放在外部环境规模更容易。 (二)数据中心的选址一家数据中心的选址问题是一个相当重要的决定。 因为现在的技术进步已经使得大多数任务可以进行远程操作,现场只需要有少量的工作人员需要即可,这就为数据中心的选址提供了广泛的地域选择。 对这一决定有着相当影响的一些因素是:选址地区的气候特点每千瓦小时的最低费用对环境的最小危害降低生产成本选址地区较低的人口稠密度低建设成本低劳动力成本“自然冷却”的可行性:使用室外空气用于冷却数据中心,从而需要减少机械制冷。 (三)绿色IT能源消耗直接影响冷却费用,毕竟散热主要来自设备。 战略业务计划将直接影响到安装在数据中心的IT设备的类型和数量。 了解数据中心的设备的类型和工作效率的相关知识是非常重要的,因为这会影响数据中心电源和冷却战略,以及数据中心的物理设计战略。 使IT更具效率和成本效益,继续成为业界关注的焦点,无论是对于制造商还是消费者。 [page] (四)可扩展性和模块化在过去几年中,只有硬件和软件的可扩展性和模块化架构,以满足日益增长的需求。 鉴于对基础设施的成本和需求的压力,现在有必要对数据中心基础设施实施可扩展性和模块化设计方法。 这样的做法,例如,适用于UPS和配电系统,将使数据中心添加/禁用某一部分,不会影响另一家数据中心。 灵活的设计使托管服务提供商可以根据客户的要求添加和删除数据中心的某些部分。 为了迎合顾客的不同负载和任务的需求,也需要一个灵活的设计。 (五)灾难恢复优化和可用性从历史上看,硬件的利用率很低,虚拟化还有很长的路要走。 然而,人们关注的重点一直聚焦在如何提高生产数据中心的效率,却并未考虑灾难恢复(DR)/备份中心的问题。 因为其一直处于“关闭”或“闲置”。 现在,企业已经意识到开始对这些“闲置”的设备进行重要的投资。 并采用创新的方法,将其用于灾难恢复(DR)的基础设施。 使用灾难恢复中心作为测试、培训的趋势正在持续增长。 设计需要考虑到切换的能力,以最安全,最快捷的手段来生产。 (六)数据中心基础设施管理IT和数据中心设施管理的融合是一个现实。 大多数基础设施设备是按照IP寻址,就像IT设备已经实施了多年一样。 开发阶段的几家公司要将两种不同的环境融合在一起。 按照情景规划的IT组件和物理基础设施元素的能力,将使设计师知道计划和变化的IT环境如何影响物理环境,反之亦然。 例如,如果我们安装了特定类型的IT硬件,将对UPS和冷却系统的负载产生何种影响?避免成本不超过工程费用将实现这些产品顺利打入市场。 至关重要的是,这些因素必须在数据中心策略和设计的早期阶段充分考虑到,毕竟这些功能将对IT预算产生非常重要的影响,如果没有计划好,可能会对数据中心的计算能力和运营成本产生不利影响。 罗恩蒂尔森是Infosys信息技术有限公司可持续发展实践的首席顾问。 拥有30多年的IT从业经验,其中26年是数据中心行业相关。 对于本文亦有贡献,他曾在新的数据中心建设和现有网站的建设部署过程中担任过各项职责,致力于物理和IT基础设施的工作。 本文作者维伯哈夫巴蒂亚是Infosys信息技术有限公司和数据中心认证协会可持续发展实践的高级顾问。 拥有9年的IT从业经验,成功管理着一家数据中心,并在多个数据中心的优化和绿色IT倡议组织工作。

工信部等三部门联合发文:大型和超大型数据中心PUE值不高于1.4

工信部、国家机关事务管理局、国家能源局近日联合印发《关于加强绿色数据中心建设的指导意见》(下简称《意见》),明确提出要建立健全绿色数据中心标准评价体系和能源资源监管体系,到2022年,数据中心平均能耗基本达到国际先进水平。 《意见》指出,引导大型和超大型数据中心设计电能使用效率值不高于1.4;力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 基本原则 政策引领、市场主导。 充分发挥市场配置资源的决定性作用,调动各类市场主体的积极性、创造性。 更好发挥政府在规划、政策引导和市场监管中的作用,着力构建有效激励约束机制,激发绿色数据中心建设活力。 改造存量、优化增量。 建立绿色运维管理体系,加快现有数据中心节能挖潜与技术改造,提高资源能源利用效率。 强化绿色设计、采购和施工,全面实现绿色增量。 创新驱动、服务先行。 大力培育市场创新主体,加快建立绿色数据中心服务平台,完善标准和技术服务体系,推动关键技术、服务模式的创新,引导绿色水平提升。 主要目标 建立健全绿色数据中心标准评价体系和能源资源监管体系,打造一批绿色数据中心先进典型,形成一批具有创新性的绿色技术产品、解决方案,培育一批专业第三方绿色服务机构。 到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的电能使用效率值达到1.4以下,高能耗老旧设备基本淘汰,水资源利用效率和清洁能源应用比例大幅提升,废旧电器电子产品得到有效回收利用。 重点任务 (一)提升新建数据中心绿色发展水平 1.强化绿色设计 加强对新建数据中心在IT设备、机架布局、制冷和散热系统、供配电系统以及清洁能源利用系统等方面的绿色化设计指导。 鼓励采用液冷、分布式供电、模块化机房以及虚拟化、云化IT资源等高效系统设计方案,充分考虑动力环境系统与IT设备运行状态的精准适配;鼓励在自有场所建设自然冷源、自有系统余热回收利用或可再生能源发电等清洁能源利用系统;鼓励应用数值模拟技术进行热场仿真分析,验证设计冷量及机房流场特性。 引导大型和超大型数据中心设计电能使用效率值不高于1.4。 2.深化绿色施工和采购 引导数据中心在新建及改造工程建设中实施绿色施工,在保证质量、安全基本要求的同时,最大限度地节约能源资源,减少对环境负面影响,实现节能、节地、节水、节材和环境保护。 严格执行《电器电子产品有害物质限制使用管理办法》和《电子电气产品中限用物质的限量要求》(GB/T)等规范要求,鼓励数据中心使用绿色电力和满足绿色设计产品评价等要求的绿色产品,并逐步建立健全绿色供应链管理制度。 (二)加强在用数据中心绿色运维和改造 1.完善绿色运行维护制度 指导数据中心建立绿色运维管理体系,明确节能、节水、资源综合利用等方面发展目标,制定相应工作计划和考核办法;结合气候环境和自身负载变化、运营成本等因素科学制定运维策略;建立能源资源信息化管控系统,强化对电能使用效率值等绿色指标的设置和管理,并对能源资源消耗进行实时分析和智能化调控,力争实现机械制冷与自然冷源高效协同;在保障安全、可靠、稳定的基础上,确保实际能源资源利用水平不低于设计水平。 2.有序推动节能与绿色化改造 有序推动数据中心开展节能与绿色化改造工程,特别是能源资源利用效率较低的在用老旧数据中心。 加强在设备布局、制冷架构、外围护结构(密封、遮阳、保温等)、供配电方式、单机柜功率密度以及各系统的智能运行策略等方面的技术改造和优化升级。 鼓励对改造工程进行绿色测评。 力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 3.加强废旧电器电子产品处理 加快高耗能设备淘汰,指导数据中心科学制定老旧设备更新方案,建立规范化、可追溯的产品应用档案,并与产品生产企业、有相应资质的回收企业共同建立废旧电器电子产品回收体系。 在满足可靠性要求的前提下,试点梯次利用动力电池作为数据中心削峰填谷的储能电池。 推动产品生产、回收企业加快废旧电器电子产品资源化利用,推行产品源头控制、绿色生产,在产品全生命周期中最大限度提升资源利用效率。 (三)加快绿色技术产品创新推广 1.加快绿色关键和共性技术产品研发创新 鼓励数据中心骨干企业、科研院所、行业组织等加强技术协同创新与合作,构建产学研用、上下游协同的绿色数据中心技术创新体系,推动形成绿色产业集群发展。 重点加快能效水效提升、有毒有害物质使用控制、废弃设备及电池回收利用、信息化管控系统、仿真模拟热管理和可再生能源、分布式供能、微电网利用等领域新技术、新产品的研发与创新,研究制定相关技术产品标准规范。 2.加快先进适用绿色技术产品推广应用 加快绿色数据中心先进适用技术产品推广应用,重点包括:一是高效IT设备,包括液冷服务器、高密度集成IT设备、高转换率电源模块、模块化机房等;二是高效制冷系统,包括热管背板、间接式蒸发冷却、行级空调、自动喷淋等;三是高效供配电系统,包括分布式供能、市电直供、高压直流供电、不间断供电系统ECO模式、模块化UPS等;四是高效辅助系统,包括分布式光伏、高效照明、储能电池管理、能效环境集成监控等。 (四)提升绿色支撑服务能力 1.完善标准体系 充分发挥标准对绿色数据中心建设的支撑作用,促进绿色数据中心提标升级。 建立健全覆盖设计、建设、运维、测评和技术产品等方面的绿色数据中心标准体系,加强标准宣贯,强化标准配套衔接。 加强国际标准话语权,积极推动与国际标准的互信互认。 以相关测评标准为基础,建立自我评价、社会评价和政府引导相结合的绿色数据中心评价机制,探索形成公开透明的评价结果发布渠道。 2.培育第三方服务机构 加快培育具有公益性质的第三方服务机构,鼓励其创新绿色评价及服务模式,向数据中心提供咨询、检测、评价、审计等服务。 鼓励数据中心自主利用第三方服务机构开展绿色评测,并依据评测结果开展有实效的绿色技术改造和运维优化。 依托高等院校、科研院所、第三方服务等机构建立多元化绿色数据中心人才培训体系,强化对绿色数据中心人才的培养。 (五)探索与创新市场推动机制 鼓励数据中心和节能服务公司拓展合同能源管理,研究节能量交易机制,探索绿色数据中心融资租赁等金融服务模式。 鼓励数据中心直接与可再生能源发电企业开展电力交易,购买可再生能源绿色电力证书。 探索建立绿色数据中心技术创新和推广应用的激励机制和融资平台,完善多元化投融资体系。 保障措施 (一)加强组织领导。 工业和信息化部、国家机关事务管理局、国家能源局建立协调机制,强化在政策、标准、行业管理等方面的沟通协作,加强对地方相关工作的指导。 各地工业和信息化、机关事务、能源主管部门要充分认识绿色数据中心建设的重要意义,结合实际制定相关政策措施,充分发挥行业协会、产业联盟等机构的桥梁纽带作用,切实推动绿色数据中心建设。 (二)加强行业监管。 在数据中心重点应用领域和地区,了解既有数据中心绿色发展水平,研究数据中心绿色发展现状。 将重点用能数据中心纳入工业和通信业节能监察范围,督促开展节能与绿色化改造工程。 推动建立数据中心节能降耗承诺、信息依法公示、社会监督和违规惩戒制度。 遴选绿色数据中心优秀典型,定期发布《国家绿色数据中心名单》。 充分发挥公共机构特别是党政机关在绿色数据中心建设的示范引领作用,率先在公共机构组织开展数据中心绿色测评、节能与绿色化改造等工作。 (三)加强政策支持。 充分利用绿色制造、节能减排等现有资金渠道,发挥节能节水、环境保护专用设备所得税优惠政策和绿色信贷、首台(套)重大技术装备保险补偿机制支持各领域绿色数据中心创建工作。 优先给予绿色数据中心直供电、大工业用电、多路市电引入等用电优惠和政策支持。 加大政府采购政策支持力度,引导国家机关、企事业单位优先采购绿色数据中心所提供的机房租赁、云服务、大数据等方面服务。 (四)加强公共服务。 整合行业现有资源,建立集政策宣传、技术交流推广、人才培训、数据分析诊断等服务于一体的国家绿色数据中心公共服务平台。 加强专家库建设和管理,发挥专家在决策建议、理论指导、专业咨询等方面的积极作用。 持续发布《绿色数据中心先进适用技术产品目录》,加快创新成果转化应用和产业化发展。 鼓励相关企事业单位、行业组织积极开展技术产品交流推广活动,鼓励有条件的企业、高校、科研院所针对绿色数据中心关键和共性技术产品建立实验室或者工程中心。 (五)加强国际交流合作。 充分利用现有国际合作交流机制和平台,加强在绿色数据中心技术产品、标准制定、人才培养等方面的交流与合作,举办专业培训、技术和政策研讨会、论坛等活动,打造一批具有国际竞争力的绿色数据中心,形成相关技术产品整体解决方案。 结合“一带一路”倡议等国家重大战略,加快开拓国际市场,推动优势技术和服务走出去。 结语 据悉,在数据中心当前的后期运营,能耗是最大成本,占比超过50%。 降低能耗效率(PUE)值,一直是业界相关部门关心的重点。 工信部在2017年4月发布的《关于加强“十 三五”信息通信业节能减排工作的指导意见》中指出:“十二五”期间新建大型数据中心的能耗效率(PUE)要普遍低于1.5;到2020年,新建大型、超大型数据中心的能耗效率(PUE)值必须达到1.4 以下。 去年3月,工信部首次公布的《全国数据中心应用发展指引》中称:全国超大型数据中心平均PUE(平均电能使用效率)为1.50,大型数据中心平均PUE为1.69。 而根据“十三五规划”,到2020年,新建大型云计算数据中心PUE值将不得高于1.4。 如今,三部门联手针对绿色数据中心建设进一步提出了明确的指导意见。 在这样的大背景下,数据中心运营商如何运用新技术、新架构降低能源降耗,实现数据中心的绿色发展,将成为行业的关注热点,与此同时,节能降耗的大趋势之下,也将带来更多的市场机遇。

以先进技术解决方案助力数据中心绿色发展

近日,国家发展改革委、中央网信办、工业和信息化部、国家能源局联合发布《贯彻落实碳达峰碳中和目标要求 推动数据中心和5G等新型基础设施绿色高质量发展实施方案》的通知指出,在交通、能源、工业和市政等基础设施的规划和建设中同步考虑5G网络建设,优化数据中心建设布局,新建大型、超大型数据中心原则上布局在国家枢纽节点数据中心集群范围内。

方案提出,到 2025 年,数据中心和 5G 基本形成绿色集约的一体化运行格局。数据中心运行电能利用效率和可再生能源利用率明显提升,全国新建大型、超大型数据中心平均电能利用效率降到1.3以下,国家枢纽节点进一步降到1.25以下,绿色低碳等级达到4A级以上。全国数据中心整体利用率明显提升,西部数据中心利用率由30%提高到50%以上。

零碳未来(重庆)能源发展有限公司采用生物 科技 和相变技术,运用多年 科技 成果,成功研制谷电通系列产品。其主要技术是采用 正温度“结冰” 的相变材料作为蓄冷介质,在夜间用电低谷期,利用电力制冷储存在蓄冷装置 中,在白天峰电时段将储存的冷量释放出来,满足数据中心的降温需求,减少空调电力负荷。实践表眀,蓄冷技术可以转移尖峰时段40%~50%的空调制冷负荷,大幅减少了白天高峰电价时段用电量,既降低了空调系统的整体运行费用,又有效助力电力负荷移峰填谷。同时,夜间制冷将有助于实现绿色电力的使用,减少用能过程中二氧化碳排放,降低数据中心的PUE值,满足绿色机房标准,实现数据中心空调系统减碳降 费的目标。

对于新建数据中心,可以通过对项目所在地自然资源进行充分评估及论证,有条件的地区可以充分利用风力、太阳能、自然冷却等技术为数据中心提供冷源。同时,采用天然气冷热电三联供作为系统的补充,以此构成以可再生能源为主、天然气分布式能源为辅、市电协同的多能互补综合能源系统,提高能源综合利用效率。实现数据中心的能源低成本、低排放、自主管理的能源体系,助力数据中心实现绿色低碳转型。

零碳未来(重庆)能源发展有限公司系京天集团旗下企业,主要经营智慧能源、移动热能配送、光储采暖、谷电通、碳咨询、脱碳技术等项目的技术研发、产品制造、运营管理等业务,国家级高新技术企业、国家知识产权试点单位、国家知识产权优势企业、拥有100余项国家专利成果。公司致力于零碳能源融合式发展,积极打造 “零碳酒店、零碳小镇、零碳园区、零碳数据中心、零碳医院”等“零碳”品牌 。未来,公司将以先进的技术、过硬的产品服务于众多企业,帮助企业高效实现零碳转型发展,助力实现碳中和目标。

PUE值是什么意思

PUE是Power Usage Effectiveness的简写,是评价数据中心能源效率的指标,是数据中心消耗的所有能源与IT负载使用的能源之比,是DCIE的反比。 PUE等于数据中心总设备能耗除以IT设备能耗,PUE是一个比值,基准是2,越接近1表明能效水平越好。 PUE值已经成为国际上比较通行的数据中心电力使用效率的衡量指标。 PUE值是指数据中心消耗的所有能源与IT负载消耗的能源之比。 PUE值越接近于1,表示一个数据中心的绿色化程度越高。

数据机房控制PUE值有什么办法?

数据机房控制PUE值的方法有很多,以下是一些常见的措施:

机房pue值是什么意思

该意思是评价数据中心能源效率的指标。 PUE是评价数据中心能源效率的重要指标,数值越接近1,表明数据中心的能效水平越好,该指标通过计算数据中心的总能耗与IT设备能耗的比值,来评估数据中心在能源利用方面的效率。 为了降低PUE值,需要采取一系列措施,如优化IT设备的设计和配置、提高数据中心的冷却效率、采用高效的供电设备等,此外,合理规划数据中心的布局和结构,减少不必要的能源消耗,也可以帮助降低PUE值。 总之,PUE值是衡量数据中心能源效率的关键指标,通过降低PUE值,可以提高数据中心的能效水平,减少对环境的影响,同时也能够降低运营成本,为企业和社会带来更多的经济效益。

如何提高PUE值 数据中心能耗详解

PUE不大于1.4在空调技术上是可行的。 制约PUE的,我认为,现阶段主要是冷却技术、空调技术、如何高效排热的问题。 贴一个清华大学江亿院士的演讲:各位来宾、各位专家、各位领导早上好!我好象是第一次参加绿色数据中心的技术大会,因为咱们不是搞计算机这行的,是搞空调,搞建筑节能的,但是好象也慢慢把我们推到这个行业了。 为什么?是因为空调的能耗或者说派热降温的能耗在数据中心里占了比较大的比例。 所以,刚才我听前面这位领导讲数据中心都快到了运行这个程度了,运行主要是能源消耗,能源消耗里就40%或者更多是空调的能耗。 所以,怎么能够降低空调的能耗,一方面给国家的节能减排作贡献,一方面也使我们数据行业产生更好的经济效益,就变成重要的问题了,所以我今天跟大家汇报一下我们在这方面的想法跟体会。 从空调的特点来看,现在随着计算机电子技术的发展,芯片技术都比原来高,主机的发热度越来越大,这样导致空调排热成为这里面大的部分。 后面有一些细的发展状况不说了,就直接看到空调里头。 现在统计大致的结果,对于中小型的数据中心大概PUE值都在2,或者以上,这是空调占了一半或者还多的一个能源消耗。 对大型的IDC机房管理做的比较好的,这时候空调效率相对比较高,但是也能占到40%左右的能耗。 所以,降低数据中心的能耗可能一个是提高服务器的使用效率,没活儿的让它歇着,一方面减少了空气的运行能耗,当然,电源也有可以提高的技术。 空调应该有很大的潜力,空调里面的能耗由什么构成?以前一想说制冷机,压缩机耗电多,实际上压缩机耗电在50%-60%左右,除了压缩机之外,风机也能占在40%或者更多的空调耗能。 现在的情况什么样?大概有这么几块:第一、因为全年制冷,所以绝大部分的数据中心制冷机都开了,这是一年来总的空调的考点状况,可以看出冬天、夏天区别很少,北京、上海、广州冷的地方,热的地方区别很少,应该说冬天天凉了,北京空调越来越大幅度下来,这个变化也不大,所以全年度在这儿用。 然后,有关发热密度非常大,负责把这些热量排走,所以循环风特别大。 并且风吹的还厉害,不行把风量减少,降低送风温度,但是当冷源温度低于屋子里温度的时候,蒸发器就凝水,恨不得天天都出湿,出了湿又怕屋子里太干,所以又有了一些加湿器,这边除湿,那边又得加湿,又得用电,冬天大冷的天还得制冷,这构成了现在数据中心,无论是大的,还是小的空调能源消耗高的主要问题。 有这样问题是坏事儿,反过来又是好事儿。 说明咱们在这儿的潜力特别大,有很大的潜力可以把空调能源消耗降下来。 那么,走哪条道?怎么做?一听说这个空调跟你们建筑节能是一码事,建筑节能都抓围护结构保温,咱们整这个,围护结构,效果非常小,或者无效果,为什么?因为一个IDC密一点的机房一平米大概产热量3-5千万,通过围护结构进入或者出去的热量不会超过折合在占地面积上不会超过50瓦,所以,围护结构的影响很小,就是1%,2%的影响。 当然,通过一些技术,避免外墙直接太阳辐射,比来我这儿热,再拿太阳照我,尽可能的密闭,别让风进来,这是很重要的。 可能有些专家说,风渗进来,有什么不好,如果房子做的不密闭,就是不可控制的室外渗风,是凉快了,但是湿度下降了,夏天热容器不好,而且由于室外的湿度变化大,我数据中心里面希望湿度维持基本稳定不变,给我添加湿、除湿的麻烦事儿。 因此,通过各方面应该把房子做密闭了,对目前来说不是保温的事儿,而且密闭的事儿,密闭最重要。 那么,怎么把热量排出去,马上前几年一些企业想办法说既然冬天不开制冷机,而且外边凉,最简单的通风换气吧,是通过凉风进来,把热量排走,这是有点节能,但是恐怕数据中心这么做不太合适,为什么?室外的灰尘赃,机器得干净,湿度室外是变化的,夏天北京的一立方米空气有2克的水汽,另外中国是烧煤的国家,70%的化石能源都来自于煤,燃煤就出硫,硫化物到室内,就会导致表面发生腐蚀现象,所以这是不行,您的冷却系统是为主机服务的,要是有损于主机,无论是灰尘还是硫化物,还有湿度都会影响主机的寿命,这是绝对不能有的。 因此,说就想法通过过滤消除灰尘,想法加湿、除湿改变湿度,想法脱硫,当把这些东西都架上,就发现投入的成本和能源消耗就不低了,而且维护管理的工作量立刻上去了,那么这么大的数据中心要求高可靠性运行,于是这事儿有点别扭了。 还有通过热交换把凉气取回来,这个思路是挺好,对于一些小规模的计算中心,像一个大楼里的数据中心有时候还可以,但是对于大规模的机房是无法实现的,是因为直接走风道这么大发热量得有多大的风量直接室外来回换气,风道的体积在那儿摆着不合适,然后维护工作量非常大,尤其还是赃。 所以,室外的低温必须想法用上,是通过室外的新风,怎么通过某种能量凉下来,最后把机器里面的热量带走。 所以,整个的数据中心的空调跟咱们楼里的空调概念不一样,它的核心事儿就是怎么把芯片那儿出来的热量通过某种介质传热,传完之后,几次交换,最后导到室外去就这么一个任务。 所以,这时候根本目标就是让芯片的温度不要超过标准温度,然后把这个温度排出来。 这样芯片表面温度和冷源温度的差跟热阻成正比,就是怎么把这个等效热阻降低了核心的事儿就变成了这么一个问题。 温差小就是如果我芯片温度不许超过40度,如果我的温差是20度,只要室外温度低于20度,我就不用开冷空气就可以把热量排走,所以就要减少等效热阻。 那么,这个等效热阻由什么构成?发现就像咱们的一个网络,三个电阻,三个等效热阻,哪三个过程?一个就是芯片跟空气之间的换热环节,这个差越大,温差就越大,比如我可以取平均温度,等效热阻就是这块面积除以热量,第一个环节就是容器跟芯片表面换热的环节。 第二个环节,比如说我有一个精密空调跟水,或者室外的冷水换热,这冷水跟容器之间的换热环节,我们叫输送与换热热阻。 第三个环节,循环介质与冷源之间换气,叫做冷源换热热阻。 比如说室内温度到20度,实际只欠10度的温差,这时候冷空机提供的活儿就是这10度的温差。 所以,把热阻减少了,无论是用自然冷源还是开冷风机都可以降低功耗。 因此,核心的问题就是把这三个环节的热阻降下来。 所以,就三个关键,第一、降低热量采集过程的热阻,同时不增加风机电耗。 第二、降低热量传输过程中的热阻,同时不增加传输电耗。 第三、找到温度更低的自然冷源,但是别破坏环境。 下面逐条看,采集过程中的热阻,实际的采集热阻,除了空气跟芯片换热之外,还有相当大的消耗是机房里面冷风跟热风的互相搀混,制冷机就是把冷风热的温度分开,分出冷热风,这个屋子里面又没地儿跑,又搀混起来了,所以避免冷风热机的搀混。 比如说要是给定芯片温度,当搀混小的时候,回风温度可以更紧的接近芯片,如果我恒定芯片温度回风少的时候,这样就可以更大程度的利用这个资源。 有一些实测的数据,是在大的IC机房里实测的,大家可以看出来,比如冷通道进来,从机房送出来应该这儿是16点几度,到这儿怎么就能30多度呢?它这儿上面还有一块挡,这30多度是哪儿来的?就是因为部分的过了服务器之后,服务器里面有空档,空档的热风又渗回来了,热风跟这些东西搀混到这些地儿,能到35度。 为了保证上面服务器的这些效果,于是就得降低送风温度,为了保证上面差不多,结果把这个温差就拉大了,导致整个的冷交热的增加。 所以,这儿看着排风有40度的,这些排风35、36度,总的到空调下一看,派风温度才28度,怎么降下来了?就是凉风过去跟热风搀和起来了,这样芯片大概在45度以上。 如果避免了这些混合之后,就可以把回风温度很容易提高到35度,输送温度也可以提高到20度,保持芯片温度最高的温度不变,于是这温差小多了,采集的等效热阻下来了。 当然,具体计算可以拿出温度差仔细算出来知道什么毛病,总的指导思想是这样的。 所以,在机柜顶部架一些挡板,这样能够有点改善。 但是由于金桂内刀片式服务器之间不可避免存在气流短路现象,因此,仍存在短路现象,使冷气流通道内有旁通过来的热气流,热气流通道内也会有旁通过来的冷气流。 还有就是直接把换热器安装在机柜内,在机柜内或者机柜旁制备冷空气,可以有效减少掺混这样现象,降低热量采集过程温差,可以减少风量、丰足,大幅降低风机电耗。 所以,这是很重要一条,但是不能让柜子出水。 这样有一种做法,就是采用背板冷却,将空调系统热换器安装在装载IT设备的机柜上,根据机房内各个不同的机柜实现按需供冷,避免局部热。 分布式制冷系统使空调系统的吸热端更接近热源。 这是第一个减少采热采集过程中的热阻。 第二减少输配过程中的热阻,实际这个环节比如一条空调器,是空气跟水的换热,那么空气温度是这样的,水温度是这样的,就会看到有时候往往都不是平衡的,是带三角形性质的,只要带三角形性质,就浪费一部分温差。 所以,想法调整两边的流量,使得两边的温差接近,可以有效的降低数配系统的等效热阻,或者减少等效温差。 有时候说是由于我用背板,或者机柜里的换热器那里面不是走水,无论是走二氧化碳,还是走氟利昂,这是机柜内送派风温度,这是热管温度,这是室外侧进出口温度,是这么一个过程,(如图所示),还有一种换热器,每排的热管单独连接,这时候室内室外的温度就变小多了,尽管换热面积一样,它就强多了。 当然,这样会导致热管布置起来要复杂,但是在二者之间,总有一个好的权衡去减少输送过程的热阻或者说降低它的温差。 第三条就是到底我们用什么样的室外的自然冷源和怎么把这自然冷源跟我的机械制冷有机的统一结合起来?因为有时候天热还得开冷机,这二者之间能不能实现一个比较自然的转换?我们现在看看到底把这个热量往哪儿排,实际在空气里面并不是一个空气的问题,咱们有三种温度,一种就是空气的干球温度,像今天大概室外27、28度,是天气预报说的温度。 直接换热就是干球温度。 但是,如果我对外面拿冷却塔喷水,就是湿球温度,大概23、24度。 比如到五一湿球温度比干球温度低的多,所以通过冷却塔就可以降低湿球温度,还可不可以再降低,还有一种就是间接蒸发冷却,西部地区很多地方用它做空调,它可以把试问降到室外的露点温度,像现在这个时候,北京的露点温度低于20度了。 这是拿北京气侯为例,蓝的是全球的干球温度,红的是湿球温度,绿的是全年的露点温度的变化。 所以,我要是安全露点温度考虑问题,全年北京市5876小时低于20度的时间占全年的67%,如果热阻做好了,就只有10%几的时间,做不好,15度的时候,露点温度也能占到77%的时间。 所以这个比例还是挺大的。 那么,怎么跟制冷机统一起来,实现无缝连接,自然过渡呢?这是一个方案,包括几部分,先说柜子,刚才我讲背板式的换热,现在是上下的换热,屋子里的空气26度,从这儿进入机柜,两组换热器,一组一个管给19度,一个管给16度,经过两种换热,从26度到20度,经过发热的服务器,达到32度,然后经过两组换热器降温,又变成26度,再回来,维持屋子里的温度是26度,不是靠屋子里别地儿装的孔,而是靠这个机柜,屋子里的温度是由机柜决定的,由于屋子里的温度是16度,露点温度只有12、13度,我把物资弄密闭了,人也不怎么进去,里面没有湿的事儿。 然后,这四组换散热器,拿热管引出来,这四组是16、19、22、25度,然后这个水就是跟这热管换热,把热量都带到水里去,所以从15恩度,涨到24度。 然后,24度,如果室外是两管,冷空气不用开,直接经过间接冷却塔就能够把水温降大15度,如果温度再低,只要朝这风机跟这儿的转换装置,能够维持我进入到换热器全年只有15度。 当室外温度高到30度,露点温度到18度,这时候冷却塔还能起一点作用,能起1/3的冷量还从这儿出,不足了再拿冷风机降一部分。 所以,这个冷风机是连续的就能够使得冷风气从10%的复合逐渐加到5%的复合。 冷却塔只要露点温度在20度以下,总能起点作用。 这样一个系统,这儿计算了一下,拿北京的气象条件可以看出来,如果是这么一个机房,跟一般传统的机房来比,咱们就直接取它一年用电量是百分之百,那么即使没有自然冷源,就是拿制冷机做,但是因为我减少了掺混,减少了数配能耗,能够节能40%几。 如果用最好的间接冷却方式,用电量只有23%,能够节省70%的电量,所以有巨大的节能潜力。 按照这个思路,我们有一些机房的改造实例,这是清华大学图书馆的一个全校支持整个学老师、同学做研究的数据中心。 它原来就是在这个屋子里头摆了一堆空调器,机器多了,热量还大,所以追加了好几台空调器。 用了跟刚才这个图差不多的方式,结果总机柜里面的风机降到7千瓦,这时候能效比从2.7涨到8.2,就只用原来1/3的能耗。 最热的时候,冷机都得开了,即使如此,能耗还能差一半。 所以,全年下来总的能耗消耗能够降低60%左右,这就是一个实际案例,这个还有一些遗憾的地方,就是做得不彻底,做得彻底了,还能够进一步降低消耗量。 总结一下,就是数据中心排热的空调实际上有巨大的节能潜力和节能空间。 它的核心是机房的气流组织怎么采集热量合理的空调器,其中几个基本原则,一个就是尽可能避免不同的温度的气流掺混,我们现在对机柜进行空调制冷的目的,不是对机房进行空调制冷,所以尽可能把冷源越贴近发热体越好,充分的利用自然冷源,有各种不同的法子获得不同温度的,然后想法介绍能耗,这样给出去的这些思路,今天讲的某一两个做法,实际在这个思路下发挥创新的精神还可以创造出好些各种各样的方案,真正把数据中心排热的空调能耗降下来。 我们觉得完全按照目前大多数方式来比较,有可能把机房的空调节能达到70%以上,相当以机房用电量降低30%以上。 刚才我听领导讲,国外发达国家比,机房的PUE到1.2,1.3那跟它机房的位置有关系。 在不同的气侯条件下,实际上抓好这几条,以自然冷源为主,适当的加一点机械制冷的补充,解决一年里面20%,25%的节能,完全可以把我们国家不同地方数据中心的空调能耗都有效的降下来,应该做的比发达国家,比美国还好,谢谢大家。

市场收入超1500亿,全国8个算力枢纽定“十四五”目标

“东数西算”工程启动以来,全国8个算力网络国家枢纽节点施工加速。

第一财经梳理各地公开信息发现,8个国家算力枢纽节点覆盖省份已陆续发布“十四五”通信业发展规划,明确了数据中心机架的建设目标、电能利用效率(PUE)等指标。

各地“十四五”算力目标

今年2月,国家发展改革委等部门同意在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等8地启动建设国家算力枢纽节点,并规划了10个国家数据中心集群,“东数西算”工程正式全面启动。

去年5月发布的《全国一体化大数据中心协同创新体系算力枢纽实施方案》,明确了8个国家算力枢纽节点的定位。对于京津冀、长三角、粤港澳大湾区、成渝等节点,重点统筹好城市内部和周边区域的数据中心布局,实现大规模算力部署与土地、用能、水、电等资源的协调可持续,优化数据中心供给结构,扩展算力增长空间,满足重大区域发展战略实施需要。

近日,上海发布《新型数据中心“算力浦江”行动计划(2022-2024年)》。该行动计划提出,到2024年,数据中心算力供给呈现以超算算力与智算算力等高性能算力为主的多元算力协同体系,总算力超过15EFLOPS(每秒浮点运算次数百亿亿次),高性能算力占比达到35%。

此前发布的《上海市新一代信息基础设施发展“十四五”规划》提出,互联网数据中心标准机架可用规模2025年预期值在28万架,2020年,这一数值为11万架。

江苏的通信业规划提出,“十四五”期间,统筹大型超大型云计算数据中心布局,推进边缘数据中心建设,江苏数据中心机架数达到70万架,为5G、人工智能、工业互联网等新技术发展提供数据中枢和算力载体,并提升数据中心绿色发展水平。

另据《江苏省新型数据中心统筹发展实施意见》,2025年底,江苏新型数据中心占比进一步提升,算力算效水平显著提高,网络质量明显优化,能效水平稳步提升,可再生能源利用率逐步提高,基本形成“双核三区四基地”发展布局体系和算力体系完备、产业发展领先、资源利用高效、绿色技术普及的发展格局,对数字经济形成有力支撑。

浙江省数字基础设施发展“十四五”规划显示,全省已建在建数据中心193个,总机架数量约17.3万架,已建大型以上数据中心20个,新一轮大型绿色数据中心建设正在启动,全省数据中心布局得到进一步优化。

浙江的目标,是2025年建成绿色高效的算力基础设施。具备45万+个机架的数据中心服务能力,新建数据中心PUE(电能利用效率)值不高于1.4。

安徽省则提出“十四五”积极承接长三角发达地区数据中心产业转移。重点推进安徽电信大数据产业园、安徽移动合肥数据中心、安徽联通长三角(合肥)数字科技中心、华云信创云数据中心等大型数据中心建设投产进度,加快国家中部健康医疗大数据中心、中国广电安徽融媒云数据中心和国家文化大数据长三角分中心等国家级数据中心落地建设。

不过,从供给来看,现在我国数据中心80%在东部,西部大概只有20%,而数据中心的耗电量约占全国总耗电量的2%。

根据工信部发布的《“十四五”信息通信行业发展规划》,数据中心高质量发展工程专栏提出,统筹数据中心区域布局、推进数据中心与网络融合发展、持续提高数据中心绿色发展水平、开展数据中心质量和云计算设施发展监测。比如,鼓励在一线城市周边地区建设热数据聚集区,在能源充足、气候适宜、自然灾害少的地区建设大型和超大型数据中心吸引冷数据聚集,推动数据集聚区之间资源共享调度,提升数据中心利用水平。

随着网络质量的优化,中西部将不再仅是进行冷存储,数据中心聚集区也将承载更多的应用。内蒙古、贵州等地推出了电力、土地、税收等优惠政策,帮助数据中心降低建设运营成本,数据中心建设规模不断增长。

8个枢纽节点中,位于西部的贵州枢纽提出,“十四五”期末争取数据中心标准机架达到100万架。与全国大数据中心集群间和关键城市间的数据中心高速直连性能大幅提升,实现网络资源与云计算资源高效协同发展。

国家发改委相关负责人此前介绍,通过“东数西算”工程,使大量的数据中心建立在西部,就能够提高对西部光伏、风电这些绿色能源的使用,如果由20%的比例提高到80%,就能够在2025年这个节点减少1.6个北京市的碳排放总量。

全球市场规模约700亿美元

世界主要国家均在积极引导数据中心产业发展,市场规模不断扩大。

中国信通院《数据中心白皮书2022》显示,近年来,我国数据中心机架规模稳步增长,按照标准机架2.5kW统计,截至2021年底,我国在用数据中心机架规模达到520万架,近五年年均复合增速超过30%。其中,大型以上数据中心机架规模增长更为迅速,按照标准机架2.5kW统计,机架规模420万架,占比达到80%。

在数据中心市场收入方面,2021年全球数据中心市场规模超过678亿美元,较2020年增长9.8%。预计2022年市场收入将达到746亿美元,增速总体保持平稳。受新基建、数字化转型等国家政策促进及企业降本增效需求的驱动,我国数据中心业务收入持续高速增长。

2021年,我国数据中心行业市场收入达到1500亿元左右,近三年年均复合增长率达到30.69%,随着我国各地区、各行业数字化转型的深入推进,我国数据中心市场收入将保持增长态势。2022年,预计中国数据中心市场收入超过1900亿元。

国家发改委相关负责人表示,东数西算每年能带动投资大概4000亿元;同时,对于西部的产业来说,数据中心这些算力设施建设之后,会带来相关的IT产业、绿色能源产业等。

今年2月,国家发改委高技术司负责人就实施“东数西算”工程答记者问时表示,随着数字技术向经济社会各领域全面持续渗透,全社会对算力需求仍十分迫切,预计每年仍将以20%以上的速度增长。

如果想实时了解更多财经要闻,欢迎关注我们。


相关标签: PUE创新技术优化数据中心优化科技创新

本文地址:http://www.hyyidc.com/article/16270.html

上一篇:数据中心PUE值的未来趋势和预测数据中心pue...
下一篇:数据中心PUE值与设施设计影响因素和最佳实...

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="http://www.hyyidc.com/" target="_blank">好有缘导航网</a>