好有缘导航网

数据中心冷却水循环利用的财务影响分析 (数据中心冷却塔工作原理)


文章编号:18529 / 分类:互联网资讯 / 更新时间:2024-05-14 16:50:28 / 浏览:

前言

数据中心冷却水循环利用的财务影响分析数据中

随着数据中心的规模和数量不断增长,对冷却的需求也在不断增长。传统的数据中心冷却方法是使用一次性经过处理的水,这可能会给环境带来重大的财务和可持续性影响。

循环利用冷却水是一种有前途的解决方案,它可以显著减少成本并改善环境足迹。

数据中心冷却水循环利用

工作原理

数据中心冷却水循环利用系统的工作原理是将一次性冷却水收集、净化并重新利用。

系统包括以下主要组件:

  • 收集池:收集废弃冷却水。
  • 净化系统:去除杂质、矿物质和生物物质。
  • 储存池:储存净化后的水供重复使用。
  • 泵送系统:将水循环到冷却塔或其他冷却设备。

好处

循环利用冷却水的主要好处包括:

  • 减少水消耗
  • 降低水处理成本
  • 减少对环境的影响

财务影响分析

减少水消耗

循环利用冷却水的主要财务影响是减少水消耗。根据数据中心基础设施和运营 (DCIO) 的一项研究,数据中心循环利用系统可以将冷却水消耗减少高达 90%。

这可以转化为每年数百万加仑的水,从而产生显著的节水成本。

降低水处理成本

循环利用冷却水还可以降低水处理成本。一次性冷却水需要处理以去除杂质和矿物质,这是昂贵的过程。循环利用系统减少了对处理的需求,从而降低了成本。

处理后的冷却水可以重复使用,进一步降低了成本。

减少环境影响

循环利用冷却水也有积极的环境影响。通过减少水消耗,该系统可以减轻水资源的压力,保护生态系统和生物多样性。

循环利用系统还可以减少废水排放,从而改善水质并保护水生环境。

投资回报率 (ROI)

循环利用冷却水系统的投资回报率取决于几个因素,包括:

  • 水消耗量
  • 水处理成本
  • 系统安装和运营成本

根据 DCIO 的研究,投资回报率通常在 3 到 5 年内就能收回。

结论

循环利用冷却水是一种有前途的解决方案,可以显著减少数据中心冷却的财务和环境影响。通过减少水消耗、降低水处理成本和改善环境足迹,循环利用系统可以为数据中心运营带来显著的好处。

随着数据中心行业不断增长,循环利用冷却水系统将发挥越来越重要的作用,以确保可持续和经济高效的运营。


首都在线数据中心的空调,电力系统是如何规划的

由冷却塔+冷却水泵+冷却水供水及回水管路组成的空调冷却水系统。 由于高功率密度数据机房在空调失去制冷条件下机房温度累积非常迅速,空调设备短时间停止供冷就可造成IT设备高温宕机。 因此在进行新一代数据中心的规划设计时应充分考虑到连续制冷的必要性。 一种观点认为,在数据中心设计阶段进行负荷评估时往往大于后期实际装机的负荷,因此认为过度强调连续制冷一方面会造成空调系统配电设备投资的加大,另一方面还可能造成后期设备利用率低等问题。 但按照IT技术的发展趋势,每5年左右功率密度会有一次技术更新,而数据中心一般设计生命周期一般不低于30年,因此在数据中心的规划设计阶段必须考虑到后期扩容和技术更新。 数据中心连续制冷的完整解决方案不仅包括空调末端、冷冻水泵的不间断运行,还应设置蓄冷罐储备一定的冷冻水用于冷水机组停止工作时可以通过蓄冷罐向空调水系统补充冷水。 为空调末端和冷冻水泵均配置UPS保持数据机房的末端空调在市电停电、高压油机恢复供电前机房内空气继续循环流动,转将冷冻水管路中冷冻水继续被输送至空调末端机房提供冷量,储存在蓄冷罐内的冷冻水补充到管路中为冷冻水管路中继续补充冷量以满足连续制冷需求。

数据中心能耗有哪些?

数据中心的能耗由以下几部分组成。

(1)IT设备。

(2)制冷系统设备。

(3)供配电系统设备。

(4)其他设备。

典型数据中心能耗构成如图所示。其中,数据中心能耗比重最大的部分为IT设备,其次为制冷系统设备、供配电系统设备及其他消耗电能的数据中心设施。

随着数据中心规模扩大及建筑体量的增大,冷水系统方案得到越来越多的应用。随之而来的是大量水资源的消耗及循环水的净化处理问题。同时,若采用蒸发冷却方案,其对清洁水的要求也越来越高。从能源利用的综合角度来看,单纯地靠PUE指标难以全面准确地评估数据中心的能耗水平,为全面合理地评价绿色数据中心工程,TGG在2009年首次提出并引入针对水利用效率评价的WUE(Water UseageEffectiveness)指标。水利用效率作为评价数据中心用水状况的指标,定义为数据中心水资源的全年消耗量与数据中心IT设备全年耗电量的比值,单位为L/kW·h。

WUE=数据中心水资源的全年消耗量/数据中心IT设备全年耗电量

目前,可采用水蒸发冷却的方法来促使制冷空调系统效率的提升,尤其在环境干燥的地区。但与此同时,PUE指标的降低也带来了水资源消耗的升高。对于采用冷水方案的工程,PUE与WUE存在一定的负相关性。这也决定了在实践应用中需要进行权衡,找到两者之间合理的平衡区间。与此对应的是,如今很多大型数据中心工程都选址在北方等气候寒冷、干燥的地区,水资源短缺也是需要考虑的重要问题。

以往人们对数据中心资源消耗的关注点往往集中在其电力消耗或燃料消耗上,认为一个数据中心只要电力指标优良,就可以认定为其为绿色数据中心;但近几十年来,全球承受着旷日持久的系统性干旱,并且随着人口的增长,工业规模的扩大,水资源消耗变得越来越紧迫,全球水资源缺乏的现状不会改变。

因此,面对水资源日趋匮乏的态势,业内也逐渐将目光转移到数据中心的水资源消耗上来;根据Uptime Institute的调查数据,数据中心平均规模大约为1MW,每年消耗的水量为26 600~30 400m³。

数据中心使用水的主要目的是散热,即利用水作为载冷工质持续带走IT设备热量。最常见的为冷冻水系统和冷却水系统,在这些系统中,冷水流经计算机机房的制冷单元;风扇吹过冷冻水散热盘管,向IT设备提供冷空气;然后水流回冷却装置中被重新冷却。冷却水系统依靠冷却塔利用水的蒸发来散发热量,利用水与空气流动接触后进行冷热交换带走热量达到蒸发散热降低水温的目的。

另外,冷凝水被重复蒸发并排放到大气中,会携带矿物质、灰尘及其他污染物。这些水必须被定期处理。上述规模的数据中心每年通过排放或补水大约会消耗5000m³的水。

总体来讲,使用传统水冷方式的1MW数据中心,每年用水量大约为30 000m³,这些数据并没有将数据中心加湿系统和空调末端泄水的消耗计算在内;另外,随着时间的推移,在水冷设备上,尤其是换热器翅片或换热管上会累积水垢或杂质,在去除这些影响空调运行安全和运行效率的污垢时,常用的方法是用水冲洗并排空,这一过程也消耗了大量的水资源。

1)冷却水蒸发采用冷却塔制取低温冷却水时,数据中心的热量主要靠冷却水的蒸发散发到大气环境中(采用干式冷却器的系统主要依靠空气与冷却水的对流换热,但其效率低,占地面积较大,且对气候条件的要求较为苛刻),水蒸发损失为数据中心水资源消耗的主要部分。

2)冷却水排水通常,数据中心冷却水系统的运行水温为32℃/37℃,该温度较容易滋生细菌,适宜藻类和污垢的生长及在管壁上的附着,并且需要通过冷却水排污来配合控制加药浓度,这一过程也会产生水的消耗。

3)IT房间加湿用水冬季,尤其是我国北方地区,室外环境相对湿度较低,机房内湿度受此影响需通过加湿系统维持机房内的湿度要求,需要消耗加湿用水。

4)软化水设备用水冷冻水及加湿水等闭式水系统在运行过程中由于泄漏、排水会造成一定的损失,为保证运行安全及系统压力,需要及时补充软化水,通过软化水设备对市政补水处理后补充到系统中。

5)设备维护用水系统运行过程中,冲洗、管道压力测试等需要的用水。

6)柴发系统运行及维护用水此部分为柴发机组排烟净化及机组冷却用水,这部分水资源消耗所占比例较小。此外,季节不同,数据中心各项用水比例会发生明显变化。

WUE指标目前还没有被广泛用于工业中,并且很少被引用,但水已经成为数据中心十分显著的因素,未来水资源利用效率一定会进入PUE度量工作中。

打造绿色节能大数据中心 湖南移动5G低碳运营助力双碳绿色行动

绿色是高质量发展底色。为加快绿色数据中心建设,湖南移动推动清洁能源安全高效利用,以完善能源管控、引导能源结构升级为目标,聚焦低碳建设、低碳运维两个关键环节,一方面加强数据中心的节能降耗能力打造,多举措降低供电损耗、提升设备效能,另一方面加快5G基站用能转型,完成能源改造后的5G基站可节省30%用电量,为实现碳达峰、碳中和目标贡献力量。

数据中心智慧化系统应用

打造绿色节能大数据中心智慧管理心中有”数“

移动互联网时代,数据是最重要的资源之一,而数据中心作为承载数据的新型基础设施,重要程度不言而喻。但随着互联网产业的蓬勃发展,大型数据中心的耗能和碳排放也日益加重。因此,打造绿色数据中心,降低数据中心碳排放势在必行。

湖南移动在株洲数据中心规划之初,就优先考虑节能减排,从建筑格局、外形结构、体形系数等方面着手,大力推广标准化绿色节能设计。不仅在建筑设计、材料选择等方面开展环保评估,在电源和空调等配套设备选型上坚持应用绿色先进技术,其中电源设备采用巴拿马电源技术,通过10KV直接输入,DC240V输出供ICT设备使用,化繁为简,将原本若干套设备精简集成为一套设备,提高3%电源转换效率,节省电费的同时还能节约投资、节约机房面积,实现快速部署。

数据中心设备功能强大,但会产生大量热量,而服务器、处理器必须在一定温度以下才能保持最佳性能,空调制冷系统就成为耗电“大户”。湖南移动在空调设备方面,采用水冷空调、水泵变频、热管冷却等技术,利用高压离心式冷水机组+板式换热器+开式冷却塔系统,在冬季充分利用自然冷源,减少冷水机组机械制冷的运行时间,再叠加新型空调末端技术,直接就近对设备进行冷却,进一步降低制冷传输造成的能耗。以上多种技术相结合,使空调制冷系统的能效比提升近一倍。

数据中心空调新技术应用

为推进智慧化数据中心运维管理,湖南移动搭建了数据中心能耗管理平台、IDC集中运维平台,通过分析楼栋、机房、设备的能耗数据,定位IT设备、供电、空调等高能耗点位,并根据IDC业务运行数据的实时监控,输出自适应的调优维护策略,通过空调运行参数优化、主设备运行调优,使各设备处于整体能耗最优模式下运行,也避免了因局部热岛问题导致整体能耗升高问题,实现了智慧制冷,确保数据中心低能耗、高性能运行。

MIMO电源+太阳能 打造5G基站低碳示范站

图为应用太阳能清洁能源的5G低碳基站

5G基站的耗电量有多大?来自湖南移动数据显示,基站耗电量占整个移动通信网络能耗的60%,5G基站功耗是4G基站的3倍。因此,提高5G基站自身的节能降耗水平,是5G发展和通信业助力全 社会 实现双碳目标的重要基础。

5G低碳基站示范站一体化能源柜

湖南移动以5G组网架构为演进方向,开展全网CRAN化改造,采用“一站一柜”的低碳建网方案,将主设备、空调、电源、电池集成在一体化室外能源机柜内,逐步替代传统土建机房,再结合“MIMO电源+太阳能”的叠光运行方案,利用太阳能资源为基站供电和电池充电,节省基站市电直接使用量,再通过引入MIMO电源技术,实现太阳能、市电、发电机组等多能源的接入,保障网络安全稳定运行。在空调设备新技术应用方面,通过“重力热管型双循环空调+封闭热通道”的机柜级制冷方式,直接就近对设备进行冷却,可大量节省制冷量,降低能耗。

为推进5G基站绿色运维、降本增效,湖南移动在一体化能源柜基础上搭建了基站能耗智慧管理平台,集成“AI+大数据+IoT+电力电子+储能技术+传感技术”于一体,可免电表实现每个设备的电量精确测量,用电足迹精确可视。智慧平台将能源与业务联动,实现设备远程上下电控制,以及空调精确制冷。

“未来,湖南移动将继续推广5G低碳基站应用。”湖南移动相关负责人表示,湖南移动还将同时开展零碳基站研究,加大5G+能源应用推广,以“节能、洁能、赋能”计划为纲要,助力全 社会 实现双碳目标。

图为一体化能源柜内电源监控模块

【DaaS描绘 新一代数据中心蓝图】新一代数据中心

当你的数据中心拥有一两万台服务器的时候,你会发现自己对数据中心的看法和以前截然不同。 数据中心规模越大,对数据中心绿色节能、可靠性、面向业务的灵活性等方面的体验就越深刻,对服务器托管、存储计算、网络带宽、能源消耗、数据安全、管理维护等方面的需求也会发生变化。 为此,从本期开始,企业计算栏目将对全新的企业级数据中心展开系列调查式报道,期待读者深入关注企业级数据中心的变化。 第一期报道从世纪互联开始,在向DaaS(Datacenter as a Service)业务模式演变过程之中,世纪互联迈向了新一代数据中心。 世纪互联创建于1996年,是目前中国规模最大的电信中立互联网基础设施服务提供商之一,主营业务包括互联网数据中心服务(IDC)、互联网内容分发/加速服务(CDN)以及全方位的增值服务和完整的行业解决方案。 现在,世纪互联在国内已经部署了10个以上的绿色独立机房,全网处理能力超过250Gbps,在北京拥有超过一万平方米的电信级数据中心,在华南、华东及全国其他城市也拥有超过五万平方米的大型电信级数据中心。 据记者日常接触的不少全球500强企业用户反映,他们中有不少企业把自己的数据中心托管在了世纪互联。 这些企业的业务需求是国际化的,对数据中心基础架构的灵活性、可靠性、连续性等方面的要求还在不断提升。 因此,这一方面要求世纪互联数据中心的建设标准和服务水平向国际看齐;另一方面,也要求世纪互联在绿色节能、虚拟化资源、自动化管理等方面提升应用水平。 DaaS的驱动力 互联网数据中心的未来业务模式是DaaS,也就是数据中心向公用化发展。 这种业务发展模式要求数据中心必须走全面的资源虚拟化和管理自动化的技术路线,系统必须能够最大限度地进行高可用性和容灾设计,并且向大规模集中化发展。 虚拟化与自动化的技术路线 要实现DaaS模式下数据中心的公用化,必须利用虚拟化和自动化等技术整合网络、存储和计算等资源,并全面提供整个技术环境的IT资源公用化。 另外,互联网数据中心之间的竞争也日趋激烈,利用虚拟化和自动化提供高水平的服务,也成为了互联网数据中心之间的重要竞争手段。 据世纪互联的工作人员介绍,在早期的数据中心里,企业必须为很多应用系统分别部署冗余的服务器资源、冗余的存储资源和带宽资源,用于应付企业应用系统的峰值现象,这就造成数据中心里服务器等资源利用率低下的现象。 现在,只要实现初步的服务器虚拟化,就可以打破不同应用系统之间的隔阂,让不同应用共享虚拟化的冗余资源,应付峰值问题。 在互联网数据中心层面,服务器和存储资源虚拟化了,就可以实现跨数据中心的资源冗余、资源调动和异地容灾,这就进一步提高了数据中心资源的利用率,提高了业务的灵活性和可靠性,并降低了数据中心的运营成本。 在世纪互联的客户中有不少“”公司,以这些公司的网站为例,网站的所有服务在虚拟化之后都按需使用、按需支付。 过去,网站新业务的开展往往意味着一系列资源(服务器、带宽、存储以及与之相关的外围设备等)的成本投入。 而在DaaS的业务模式下,构建在虚拟化和自动化等技术基础上的新一代IDC,客户无需关注资源的物理位置,无需对任何物理设备进行配置、管理和维护,只需通过统一接口根据自身需要提交各项“任务”即可获得快速的、可定制的互联网数据中心服务。 从某种意义上讲,这非常接近IBM曾经提出的“On Demand”模式。 据世纪互联数据中心董事长助理任江介绍,世纪互联并不做单一服务器上的简单虚拟机业务,而看重跨数据中心的全面虚拟化。 目前,世纪互联正处于进入数据中心虚拟化阶段,也就是将服务器资源、存储资源和带宽资源等虚拟化资源作为资源池,通过统一的接口供上层应用按需调用。 世纪互联基于虚拟化的ICS服务与云存储服务已经进入了规模测试阶段,在近期即将推出。 “这样就有效地屏蔽了数据中心的底层复杂性,客户只需去关心商业模式、网站的服务内容,而我们要做的是从技术上、资源上,包括资本投入方面来提供支持。 ”任江说:“站在客户的角度来看,这可为用户实现业务的灵活性以及更短的应用部署时间;从IDC的角度来说,资源利用率大大提高而成本却明显降低。 ” 世纪互联在实现虚拟化方面已经积累了自己的独特经验。 任江指出,虚拟化的投入和回报并不是一条笔直的斜线,而是一条曲线。 虚拟化的规模有一个平衡数值,虚拟化的规模太小价值会有限,虚拟化的规模太大也并不经济,因为虚拟化是有性能开销的。 “抓住了虚拟化规模的平衡数值就可以得到最大的资源利用率,超过了这个数值,效率就会下降。 此外,实现虚拟化,也是在业务上实现SOA的基础。 就像SaaS的概念一样,DaaS是我们的业务目标,就是把服务器、存储和带宽资源虚拟化,把数据中心作为一种服务来向用户提供。 ”任江在介绍虚拟化情况时说道。 容灾不如避灾 任何企业都不希望自己的关键业务系统宕机,也不希望自己的业务数据发生丢失。 在虚拟化基础上实现服务器的高可靠性并不困难,数据保护和快速恢复成为了业务可靠性的关键环节。 世纪互联要向托管的企业承诺服务质量,势必要在容灾和避灾方面下足工夫。 否则,一旦托管客户业务中断,其损失是无法估量的。 关于数据备份方面的服务,任江介绍到,世纪互联对于其关键业务引进了一套避灾系统。 一般来讲,初级数据备份和进一步的灾难备份是一般用户的备份手段,但是这些都是在发生了数据损失之后进行恢复。 因此,这些备份方法还是对业务的连续性有影响,只是程度不同而已。 世纪互联目前与供应商合作,运行了一套避免数据损失的“避灾”存储系统。 这套存储系统已经经过国外一些航空航天系统的运行测试,它把数据在存储的时候切分成碎片,以20%左右的冗余度分散存储在不同数据中心的多个存储服务器上,因而没有单点失效的问题。 这一技术进步源于网络带宽和存储成本的降低。 在目前数据中心非常发达、高速网络成本越来越低的情况下,这样把数据切碎后分散放置,既保护了企业的隐私,其成本上升也能接受,还大大增加了数据的安全性。 IDC能源问题凸显 在很多国外的企业数据中心里,管理维护成本居首位,设备采购成本是第二位,能源成本位列第三位。 在国内的大型数据中心,由于规模效益以及国内人员成本略低,管理维护成本退居第二位。 如果数据中心的设备以用户托管为主,那么设备采购成本也不是首位。 能源成本已经高居国内众多大型数据中心成本首位,世纪互联也是如此。 如今,在能源价格急剧攀升的严峻形势下,能源成本日益受到世纪互联的重视。 对于一般的企业数据中心而言,电力成本高低无关企业核心竞争力。 但在IDC行业,能源成本已经成为世纪互联树立核心竞争力的重要手段。 因此,从数据中心建设环节开始,世纪互联就格外注重绿色环保。 采用多项技术降低能耗 由于世纪互联的大量客户来自国外跨国企业,这些企业对数据中心的标准有严格的要求,所以世纪互联数据中心的建设也严格遵循了国际上的相关标准。 近期全面投入使用的世纪互联2号数据中心是参照ANSI(美国国家标准协会)&TIA(美国电信产业协会)-942 T4级主要标准设计建设的,数据中心所在的楼为五层建筑,按抗震8级设计,其中一层和二层用于数据中心。 在供电方面,世纪互联2号数据中心采用双路冗余电力系统,同时,还采用了柴油发电机组,可在公共电网断电时支持机组满载运行24小时。 在制冷方式上,2号数据中心采用的是水冷式空调系统。 据统计,通常情况下,在一个6000平方米的机房中所需的总冷量约为6000kw,以此为基数计算,风冷空调系统的电源输入总功率比水冷系统的电源输入总功率高33%,也就是功耗高33%。 水冷式空调不仅单位冷量所耗费的电力比风冷空调要低,并且机房内的回风还会送回到空调重新进行冷却处理,不会对周围环境造成影响。 当然,水冷式空调系统的结构要比风冷式空调复杂。 在世纪互联2号数据中心使用的水冷式空调系统中,包括冷冻水生产系统(冷水机组+冷却塔)和水冷型精密空调,以及监控冷水机组的控制系统,此外还有较为复杂的传送冷水的管路系统。 世纪互联2号数据中心还有另外一个节能秘笈――板式换热器。 板式换热器是利用冬天室外的冷空气为数据中心散热的。 在北京,每年冬天室外温度低于5℃的时间有3个月以上,这是板式换热器发挥作用的绝佳时期。 据测算,在6000平方米的机房中,如果使用板式换热器,在室外温度低于5℃时,可以关掉冷水机组,此时,风冷空调系统比水冷系统的电源输入总功率高215%。 此外,世纪互联2号数据中心还使用了湿膜加湿器。 精密空调当然可以为机房加湿,但代价要大得多,而湿膜加湿器的功率消耗仅是空调加湿器的5%左右。 根据使用经验,3000至5000平方米以上的机房用水冷空调较为合算;如果机房较小,用水冷式空调就不太划算了,因为其系统较为复杂。 设计和管理决定节能成败 机房设计和建造中的许多细节也可以对节能起到巨大作用。 例如,在世纪互联2号数据中心机房中就采用了冷热走廊设计,即机柜是面对面、背对背安装的,所有冷风从地板下吹出来,送到服务器的正面,经过服务器后的热空气吹到热通道,然后传输到天花板的热风口,最后经天花板上面的空间送到空调的回风口。 这就减少了冷热空气混合的机会,大大提高了制冷效率。 此外,世纪互联还自己设计机柜,增大机柜门上的通风网孔,以提高通风率;机柜的前后门和侧板均可快速拆卸,这样,在功率高于每机柜4KVA时,可拆除机柜的后门,并安装将空气水平吸入柜内的抽风组件(ARU)。 还有地板也是节能设计的一个关键环节。 世纪互联2号数据中心机房的地板高度远高于我国2000年修订的机房建设标准中规定的300毫米,这就减少了空调冷风传送过程中的阻力;同时其还使用了通风率可调节的高压铸铝地板,并且可以根据机柜负荷的高低来调节通风地板的面积。 除了在硬件上采购绿色节能的基础设施以外,在管理上世纪互联也充分考虑了如何提高节能效率、可靠性和高可用性。 使用机房监控系统,把机房管理带向精确化和自动化,也是节约机房运维费用的一个良方,因为数据中心的成本不仅包括电力,人员成本同样是重要的费用支出项目。 并且,使用机房环境监控系统可以更全面、更及时地监控机房中的各种安全因素。 世纪互联2号数据中心机房使用的机房监控系统,通过安置在热点上的传感器,可以对安防系统、消防系统、综合布线和机房内各种设备(包括UPS、配电柜、PDU、发电机组、精密空调等)的运行状态进行监控,包括漏水、漏油、温湿度、机柜电流、配电柜等各项参数的情况,这为数据中心的运维管理提供了极大的帮助。 比如,机柜断电以前要靠人为巡视发现,现在监控系统会在第一时间自动报警,并会把信息发送到值班运维人员的手机上。 再比如,机柜需要的冷量和通过的电流成正比,使用带电流显示的PDU之后,可以根据电流大小来调节出风口的大小,以达到节能效果。 据了解,世纪互联的其他自有机房的绿化改造也在按照计划积极开展。 任江表示,从更长远来看,未来数据中心的发展趋势是集中化,向大型规模化的数据中心发展才能实现更绿色,分散的数据中心将被淘汰。 IBM专家点评 世纪互联是我国较早建设大型数据中心的企业,存在典型的早期大型数据中心特性,这些数据中心的通病就是缺乏对绿色节能的考虑。 伴随着业务的高速扩展,电力消耗、机房散热和有效利用空间成为了企业越来越急需解决的严重问题。 具有国内领先的数据中心运营经验和水平的世纪互联,对未来数据中心的建设有着领先的认识。 “全新企业级数据中心”理念在其新数据中心的建设中得到了充分的体现。 首先,“全新企业级数据中心”是绿色设计的数据中心,也就是所谓的“Green by Design”。 世纪互联认识到数据中心的“绿色”是从设计到实施再到综合治理才能实现的。 他们采用了诸如水冷式空调、板式换热器、冷热走廊和提高机房地板等设备和设计,以此来有效地提高电能利用率,并降低散热效率。 IBM在绿色数据中心建设方面,也有着全面的解决方案和领先的技术,尤其是绿色数据中心节能服务和高性能虚拟化技术产品引领行业节能减排技术的发展。 其次,世纪互联在数据中心如何利用虚拟化技术实现降低成本、提高利用率,并灵活和快速应用部署方面有着很高的认识和前瞻性,这与IBM不谋而合。 “全新企业级数据中心”所谈及的未来虚拟化技术,已经不再是简单的单机上的虚拟化,而是整个数据中心,乃至跨数据中心的虚拟化。 所有服务器、存储和网络等均被虚拟化作为共享资源。 所有计算资源的虚拟化,不仅更进一步提高资源的利用率,并降低运营成本,同时,任何应用均被配置了相应的服务器、存储和网络资源,可以被快速地部署实施。 数据中心也因此转变为高效的服务实体(即所谓的公用化),以灵活快速地响应市场变化。 不仅如此,世纪互联根据其自身的业务特点,兼顾到数据中心的安全可靠性,利用国外先进成熟的技术和方案,为实现“全新企业级数据中心”打下了坚实的基础。 总之,世纪互联由于其领先的实践和高瞻远瞩的理念,其数据中心的建设正朝着正确的方向,引领国内高端数据中心建设的发展。

为什么微软要把数据中心设在水下?

是因为微软公司为了减少散热成本。大家都知道,数据中心的运转会散发大量热量,若不及时散热就就极其可能烧毁服务器。但是增加散热设备又会加大电力使用,从而增加成本,于是微软的工程师们想出了一些“奇特”的方法——将数据中心存放于水下。数据中心散热量很大,尤其是数据高峰时,会加大服务器的运行压力,同时也会加速工作,产生热量也较多,如果不能及时降温,就会有烧坏的风险。

数据中心一旦坏掉,其损失难以估量,于是人们想出很多方法为其降温,据统计数据显示,一个数据中心的成本中,电力成本就占了20%左右,而电力成本中的42%又会用来散热。因此,微软公司为了减少散热成本,便将自己的数据中心建在水底。如此以来,便节约了一部分的电力成本,也不用担心数据中心因为运转太快而出现散热不及时的情况。

另一方面,微软公司的这一行为,也符合当今的环保理念。通过利用水的自然冷却,减少对电力的依赖,也便是减少了化石能源对环境增加的负荷,毕竟现在大多数的电力供应还是以化石能源的火电为主。

微软公司表示,今后会将更多的数据中心建设在水下,并广泛进行落实。不得不说,微软真是一个非常有想法的科技创新型公司!微软能有今天的成就,离不开每一位研发人员和工作人员的辛勤付出。不过想到以后的海洋中,不仅有海底隧道,海底电缆、还会有数据中心,是不是会感觉很神奇。

7大蒸发冷却技术原理与设计产品介绍

探索7大蒸发冷却技术的奥秘与创新设计

1. 直接蒸发冷却空调的创新应用 环保与节能的先锋——蒸发冷却技术在高温高湿的工业环境和公共场所,蒸发冷却技术大显身手,它不仅降低了能耗,还提供了舒适的室内气候,成为节能改造的理想选择。 而在学生宿舍中,这种技术的应用更是提升了居住环境的舒适性。 间接与露点式技术的革新露点式间接蒸发冷却技术通过预冷和热湿交换,创造出干燥且宜人的环境,尤其在干燥地区,其舒适度提升显著。 露点式间接蒸发冷却空调机组和冷水机组,凭借独特的设计,实现了高效能的热湿交换。 蒸发与机械制冷的复合创新蒸发式冷凝器的多样性填料型和淋水型蒸发冷凝器各具特色,填料型依赖水蒸发,淋水型则有顺流和逆流两种方式,每种都通过高效的热湿交换,实现节水和高效制冷。 未来趋势:节水节能的典范蒸发冷凝式冷水机组在地铁等场所大显神通,不仅节水,还显著降低能耗,板管式蒸发冷凝器则以平面液膜换热技术,引领着制冷领域的革新潮流。

请问一下,(数据中心)冷冻水型机房空调和冷却塔供冷系统的区别在哪里?

从字面意义来理解,”冷冻水型“指的是冷水机组系统,也就是主机产生冷水,冷水进入末端换热设备(空调箱或风盘)内与数据中心内空气进行热量叫唤。 而”冷却塔供冷系统“可以理解成”水冷式空调系统,也可以理解成没有制冷系统的直冷系统。 需要有更准确的信息才能做出准确的对比。

大型数据中心机房专用空调系统对比分析?

水冷自然冷工作原理图

风冷自然冷工作原理图

请点击输入图片描述

两种自然冷技术对比

系统架构

如上原理图,水冷系统内部有“氟”和“水”两套独立系统,部件更多,结构较复杂。

风冷系统结构简单,在同一系统中实现常规制冷、混合制冷和节能系统制冷。不引入新风,保持了机房密封性、洁净度。系统简单可靠。

安全可靠

水冷系统有大量冷却水进入机房,有漏水隐患。风冷系统无水进入机房,更加安全可靠。

节能效率

水冷方式的热量经过:室内空气与制冷剂(风冷换热)-制冷剂与乙二醇(水冷换热)-乙二醇与室外空气(风冷换热);风冷方式的热量经过:室内空气与制冷剂(风冷换热)-制冷剂与室外空气(风冷换热)。水冷方式多了一层水与室内外空气的换热,因而增加了换热损失。

风冷自然冷工况时,制冷剂在与室内外换热时有相变,而水冷自然冷工况时水没有相变。因此风系统制冷剂的载热效率更高。

风冷自然冷系统具更高的切换温度,因此具有更高的效率。

投资对比

风冷自然冷系统结构简单,部件少,初投资更低。

可维护性

水冷自然冷系统需要增加水管路的维护,对维护专业性要求更高。考虑防冻的乙二醇溶液属于有机溶液,国家对排放有严格要求。因此其综合维护成本高于风冷自然冷系统。


相关标签: 数据中心冷却塔工作原理数据中心冷却水循环利用的财务影响分析

本文地址:http://www.hyyidc.com/article/18529.html

上一篇:优化数据中心冷却水循环利用以提高运营效率...
下一篇:利用冷却水循环利用实现数据中心的可持续IT...

温馨提示

做上本站友情链接,在您站上点击一次,即可自动收录并自动排在本站第一位!
<a href="http://www.hyyidc.com/" target="_blank">好有缘导航网</a>