数据中心是能源消耗大户,其中冷却系统占总能耗的很大一部分。传统的冷却方法使用大量的一次性水,既浪费水资源又增加了运营成本。冷却水循环利用技术通过循环利用冷却水,大大降低了数据中心的水耗和能耗。
冷却水循环利用技术的工作原理是通过冷却塔或冷水机组将冷却水冷却后,再循环利用于数据中心设备的冷却。冷却水在冷却过程中会蒸发一部分水分,因此需要定期补充部分新鲜水。
冷却水循环利用系统主要包括以下组件:
冷却水循环利用技术具有以下优势:
与一次性冷却水相比,循环利用冷却水可以显着降低数据中心的水耗。据估计,循环利用技术可以节约高达 90% 的用水量。
减少水耗可以相应地降低冷却系统的能耗。循环利用冷却水减少了冷却塔或冷水机组的运行时间,从而节约了能源。
节约用水和能耗可以直接降低数据中心的运营成本。循环利用技术还可以减少与采购和处置一次性冷却水相关的成本。
循环利用冷却水可以减少对水资源的消耗,
1. 全球首例采用市电直供,HVDC offline(高压直流离线)供电架构,Capex节省80%,供电效率由90%左右提升至99.5%,做到了极致。 2. 网络自研分布式锂电系统(BBS)与整机柜服务器完美结合,国内首发上线,极大简化前端配电,模块化弹性部署,供电效率高达99.5%,节省机房面积25%以上。 3. 充用利用机房楼顶空间,清洁的太阳能光伏直接并网发电技术,即发即用,在节能的同时还极大减少污染物排放。 4. 数据中心冷冻站通过板式换热系统,实现极致水侧免费冷却,华北地区全年超过94%的时间可利用室外自然冷源免费冷却。 5. 采用AHU(Air Handle Unit)风墙冷却技术,通过与高温耐腐蚀服务器配合,采用全新气流组织方案,解决了空气污染及腐蚀难题,全年100%实现风侧免费冷却。 6. 自研“蜂巢”预制模块技术,采用无架空地板设计,全面支持整机柜部署,在保证高质量交付的同时,成本持续下降,建设工期缩短一半。 7. 网络自研OCU(Overhead Cooling Unit)新型空调末端,与预制模块技术完美结合,利用空气对流原理,空调末端无风扇、零功耗。 8. 网络独创的数据中心污水回收再利用技术,冷却水系统节水率为44.8%,数据中心园区年均节水量可达到48万吨。 9. 网络自主研发的“北极”(天蝎)整机柜服务器,采用共享电源、共享风扇架构,部件全部标准化、模块化、一体化,支持40摄氏度环境温度长期运行。 总拥有成本(TCO)降低15%,交付效率提升20倍,日可交付能力超过1万台。 10. 服务器集群全面混部并采用智能流量调度系统,大幅提升服务器利用率,降低冗余服务器数量;通过智能数据中心节电技术,在同样供电能力下,可多装服务器25%以上。 11. 智能决策运维平台,由监控系统、统一管理平台、大数据分析平台、策略决策平台四大模块组成。 其故障定位准确率达92%,停电恢复时间由10分钟缩短到30秒
我们的研究表明,通过更加严格的管理,公司可以将数据中心的能效提高一倍,从而降低成本并减少温室气体的排放。 具体而言,公司需要更积极地管理技术资产,提高现有服务器的利用率水平;公司还需要更准确地预测业务需求对应用程序、服务器和数据中心设施容量的推动效应,以便控制不必要的资本和运营支出。 数据中心的效率是一个战略问题。 企业建造和运营数据中心花费的资金在公司IT预算中占的比例不断上升,导致用于急需技术项目的预算越来越少。 数据中心建造计划是董事会一级的决策。 同时,监管部门和外部利益相关方也越来越关注公司管理自身碳足迹的方式。 采用最佳实践不仅有助于公司减少污染,还能够提高它们作为良好企业公民的形象。 IT成本高昂如今,公司进行的分析越来越复杂,客户要求实时访问账户,广大员工也在寻找新的技术密集型协作方法。 因此,即使在经济放缓时,人们对于计算、存储和网络容量的需求也在继续增长。 为了应对这一趋势,IT部门正不断增加计算资源。 在美国,数据中心的服务器数量正在以每年约10%的速度增加。 与此同时,在中国和印度等新兴市场,机构正在变得越来越复杂,更多的运营工作实现了自动化,同时有越来越多的外包数据业务在这里进行,因此数据中心的数量呈现出更快的增长态势。 这种对计算资源无法抑制的需求,导致全球数据中心容量稳步上升。 目前,这种增长并没有显露出即将结束的迹象,通常在经济衰退时期它只会进入温和增长状态。 这一增长已经导致了IT成本激增。 如果将设施、存储设备、服务器和人员成本都计算在内,数据中心支出一般会占到企业IT总预算的25%。 随着服务器数量不断增长,电价也正以高于收入和其他IT成本的速度攀升,上述比例只会日益提高。 每年,运行这些设施的成本都在以高达20%的速度上升,而IT总支出的增长速度仅为6%,二者相差极为悬殊。 数据中心支出的不断增加,改变了许多企业的经济结构,尤其是金融、信息服务、媒体和电信公司等信息密集型企业。 在过去5年中,成立一个大型企业数据中心所需的投资已经从1.5亿美元升至5亿美元。 在IT密集型企业中,最大设施的造价正逼近10亿美元。 这一支出挤占了新产品开发的资本,降低了某些数据密集型产品的经济效益,并降低了利润。 此外,不断上升的能耗产生了更多、范围更广的碳足迹,导致了环境恶化。 对于大多数服务行业,数据中心是企业最主要的温室气体排放来源。 在2000到2006年间,用于存储和处理数据的电力翻倍,每个数据设施的平均耗电量相当于2.5万个家庭的总和。 世界上共有4400万台服务器,消耗了总电力的0.5%。 如今,数据中心的碳排放已经接近阿根廷和荷兰等国家的碳排放水平。 仅仅在美国,到2010年数据中心的预计用电增长量就相当于要新建10座电厂的发电量。 目前的预测显示,如果不对需求加以遏制,2020年全球数据中心的碳排放将是现在的4倍。 监管部门已经注意到这些发展趋势,正在督促公司拿出解决方案。 美国环保署(EPA)建议,作为建立运营效率标准的第一步,大型数据中心应当使用能量计。 同时,欧盟也发布了一套自愿执行的行为准则,其中介绍了以较高的能效运行数据中心的最佳实践。 随着数据中心排放量的持续上升,政府可能会为了减排而施加更大的压力。 第2页:全面应对挑战全面应对挑战在信息密集型机构中,许多部门和级别的人员都可以做出影响数据中心运营效率的决策。 金融交易员可以选择运行复杂的蒙特卡洛(MonteCarlo)分析,而药物研究人员可以决定要将多少临床实验影像数据存储起来。 负责应用程序开发的管理人员可以决定用多少编程工作来满足这些需要。 服务器基础设施的管理人员可以做出设备采购决策。 设施主管则可以决定数据中心的位置、电力供应,以及在预测的需求出现前安装设备的时间表。 上述决策通常是在孤立状态下做出的。 销售经理可能会选择将交易由隔夜结算改为即时结算,金融分析师则可能希望为历史数据存储几份副本,他们完全没有考虑到这样做会对数据中心的成本造成什么影响。 应用程序开发人员很少想到要对自身的工作进行优化,以将服务器用量降到最低,也很少考虑开发能够跨服务器共享的设计应用程序。 购买服务器的管理人员可能会选择价格最低或他们最熟悉的产品。 但是这些服务器也许会浪费数据中心的电力或空间。 很多时候,管理人员会超额购买设备,以保证在最极端的使用情况下拥有足够的容量,而这会造成容量过剩。 管理人员往往会建造有多余空间和高制冷容量的设施,以满足极端情况下的需求或应对紧急扩建。 这些决策在整个机构中累加起来,将对成本和环境造成重大影响。 在许多情况下,公司可以在不降低自身数据管理能力的前提下,停用现有的部分服务器,并搁置购买新服务器的计划。 这可以借助一些众所周知的技术来实现。 比如虚拟化,这种技术实际上是通过寻找服务器的空闲部分来运行应用程序,以达到容量共享的目的。 但是公司不一定会这样做,因为没有哪位高管能够承担“端对端”的责任。 在机构内部,管理人员会以最符合自身利益的方式行事,这就造成大多数数据中心效率低下,每台服务器上常常只运行了一个软件应用程序。 我们分析了一家媒体公司的近500台服务器,其中利用率低于3%的占三分之一,而低于10%的则占三分之二。 虽然有诸多用于跟踪使用情况的现成管理工具,但这家公司没有使用其中任何一种。 从全球来看,我们估计服务器的日常利用率一般最高只有5%到10%而已,这造成了能源和资金的浪费。 对此,数据中心管理人员一般会回答,配备这些服务器是为了在极端情况下提供容量,例如应付圣诞节前一天的购物潮。 但一般来说,这一论断并不成立,因为数据显示:如果平均利用率极低,那么高峰时段的利用率也会很低。 此外,数据设施的数量不断攀升,但所存放的服务器和相关设备有时仅占数据设施容量的一半,这说明有上亿美元的资本支出被浪费了。 即使公司报告认为数据中心已经满载,但沿着数据中心的过道行走,经常会发现服务器机架上有很多空位,原先放在这些空位中的设备都已经淘汰。 之所以出现这种不一致的现象,部分原因在于预测数据中心需求的难度很高。 运营的时间框架是一个问题。 数据中心的设计和建造一般需要2年或更长时间,而预计的使用寿命至少为12年,因此容量是在业务部门产生实际需求之前就已经设定的。 与此同时,对于业务决策如何互相影响,如何转化为对新应用程序的需求,以及需要多少服务器容量才能满足需求,还存在着认识不够全面的现象。 例如,如果客户需求增长50%,许多公司很难预测出服务器和数据中心的容量是需要增加25%,还是增加100%。 在极端情况下,我们发现一些设施在投入运营后常年处于半空状态;而另一些公司在建成一个数据中心之后,很快就发觉需要再建一个新的。 如今数据中心已经成为一项昂贵的资产,由此可以推断,财务绩效责任落实得十分糟糕。 设施的财务和管理责任往往会落在不动产管理人员身上,而这些人基本不具备相关的专业技术知识,对于IT与核心业务问题的联系也缺乏深入的认识。 同时,管理服务器运营的人员很少去了解关键运营支出的数据,例如耗电量或IT设备所占不动产的实际成本。 相反,当IT管理人员决定购置更多的应用程序或新的服务器时,有时只会使用硬件初始成本和软件许可证费用等基本指标。 计算实际成本时,需要考虑设施运营和租赁、电力使用、支持以及折旧等因素。 这些费用可能是服务器初始购置成本的4到5倍。 加上前面说到的孤立决策和责任问题,数据中心通常会添加额外的服务器作为保险措施,而很少讨论成本权衡或业务需求。 在缺乏实际成本分析的情况下,过度建造、过度设计和效率低下就成了普遍现象。 第3页:改革运营方式改革运营方式在研究之初,我们以为通过建造新的节能型数据中心,可为降低数据中心的成本和碳排放指出一条光明大道。 新的设施可以发挥当前各种技术的优势,利用自然冷却方法和碳排放较低的电源。 但我们还了解到,在降低成本和碳排放方面成效最显著的方法是改善公司现有数据中心效率低下的状况。 通过改善资产管理,增强管理层的责任意识,并且为降低能源成本和碳排放设立清晰的目标,大多数公司都能够在2012年之前将IT能效提高一倍,并遏制其数据中心温室气体排放的增长。 实际上,您无需另行建造就能获得最环保的数据中心。 积极管理资产一家大型公司采用的做法表明,规范现有服务器和设施的使用就可能产生巨大的收益。 这家公司原本的计划是,增加服务器的数量,并建造一个新的数据中心来容纳这些服务器和其他IT设备,以便满足自身在2010年的信息需求。 该公司的董事会已经批准了这项计划,但这意味着企业在这一年会有大量的资本支出。 于是,这家公司彻底修改了计划。 它将关闭5000多台很少使用的服务器。 通过对占公司应用程序总量15%的3700个应用程序进行虚拟化,可以将现役服务器的数量由2.5万台减少至2万台。 公司还更换了一些较为陈旧的服务器,代之以能够将用电效率提高20%的产品。 这些调整使公司得以搁置原先的数据中心扩建计划,并因此节省了3.05亿美元的资本投资成本。 由于服务器数量和耗电量的下降,运营支出预计将减少4500万美元,降低到7500万美元。 考虑到停用和虚拟化因素,服务器运行时的平均容量利用率将由目前的5.6%升至9.1%。 该公司仍然能够满足自身日益增长的数据需求,但是电力需求的减少,意味着未来4年内的二氧化碳排放将由59.1万吨削减至34.1万吨。 公司还可以通过对不断上升的数据需求加强管理来实现节约。 对于应当保留多少数据,是否要缩减某些数据密集型分析的规模,业务部门应当审查相关的政策。 一些交易的计算可以推迟,以降低服务器在高峰时段的利用率,也并不是所有企业信息都需要基于广泛备份的灾难恢复功能。 更好的预测和规划是提高数据中心效率的基础。 公司应当跟踪自己对数据需求的预测与实际需求之间的差异,然后向能够最大限度减少预测偏差的业务部门提供奖励。 数据中心的管理人员应尽可能全面了解未来的趋势,例如机构增长和业务周期等,然后将这一趋势与自身采用的模型结合起来。 由数据中心、应用架构师和设施操作人员提供的建议可以用于改善这些模型。 一家全球通信公司制定了一套规划流程,将每个业务部门数据增长量的各种发展情况包括在内。 虽然公司最终得出的结论是,它需要扩大容量,但是未来需求中有很大一部分可通过现有资产来满足,这比原计划节约了35%的资本支出。 许多机构并没有将数据中心看作一种稀缺的昂贵资源,而是将其当成了等待注水的水桶。 为了避免这种趋势,公司在估算新服务器或附加应用程序和数据的成本时,可以采用实际拥有成本(TCO)核算法。 业务部门、软件开发人员或IT管理人员在进行支出决策时,很少会将应用程序和服务器的生命周期运行成本考虑在内。 提早计算这些成本,有助于限制过量的需求。 管理这些变化可能十分困难。 大型机构中的许多人并没有意识到数据的成本。 企业的每一个部门都会产生对于数据中心服务的需求。 满足这些需求的责任分散在IT部门(包括运营和应用开发)、设施规划人员、共享服务团队和企业不动产职能部门身上。 成本报告工作并没有统一的标准。 第4页:提高总体效率提高总体效率作为数据中心改进计划的一部分,我们建议采用一项新的指标:企业数据中心平均效率(CADE)。 与美国的企业燃料平均经济性(CAFE)里程标准类似,CADE考虑了数据中心内的设施能效、设施利用率和服务器利用率水平。 将这些因素综合起来,就得到了数据中心的总体效率,即CADE(图)。 减少了成本和碳排放的公司将提高自身数据中心的CADE分数。 这就像在汽车行业中,出色的里程数能够提高CAFE评级一样。 为了给改进工作设立目标,我们将CADE分为五级。 属于CADE第1级的数据中心运营效率最低;大多数机构最初可能都会被归入较低的级别。 关闭利用率低下的服务器、采用虚拟化技术以及提高设施空间的使用效率,都将提高CADE分数。 借助CADE,公司还可以对整个数据中心的设施进行基准比较分析,或者与竞争对手进行比较,也可以为管理人员设立绩效目标并加以跟踪。 在数据中心的需求管理方面,我们建议采用一种由首席信息官全权负责的新治理模型。 在这种体制下,首席信息官能够更为透彻地了解各业务部门的数据需求;对于需要更多服务器或软件应用的新数据项目,他们可以强制要求将能耗和设施成本考虑到相应的投资回报计算中。 我们还建议首席信息官采用一种新的指标来衡量改进情况,请参见副文“提高数据中心的效率”。 通过强化责任,首席信息官将拥有更高的积极性来寻求改进,例如采用虚拟化技术和提高现有设施的利用率。 由于这种模型将关键业务决策的更多责任集中在首席信息官身上,因此不但需要首席执行官的全力支持,而且要求机构转变以往对于业务部门的数据中心扩容请求有求必应的思维模式。 此外,首席信息官还应当设定将数据中心的能效提高
数据中心的能耗由以下几部分组成。
(1)IT设备。
(2)制冷系统设备。
(3)供配电系统设备。
(4)其他设备。
典型数据中心能耗构成如图所示。其中,数据中心能耗比重最大的部分为IT设备,其次为制冷系统设备、供配电系统设备及其他消耗电能的数据中心设施。
随着数据中心规模扩大及建筑体量的增大,冷水系统方案得到越来越多的应用。随之而来的是大量水资源的消耗及循环水的净化处理问题。同时,若采用蒸发冷却方案,其对清洁水的要求也越来越高。从能源利用的综合角度来看,单纯地靠PUE指标难以全面准确地评估数据中心的能耗水平,为全面合理地评价绿色数据中心工程,TGG在2009年首次提出并引入针对水利用效率评价的WUE(Water UseageEffectiveness)指标。水利用效率作为评价数据中心用水状况的指标,定义为数据中心水资源的全年消耗量与数据中心IT设备全年耗电量的比值,单位为L/kW·h。
WUE=数据中心水资源的全年消耗量/数据中心IT设备全年耗电量
目前,可采用水蒸发冷却的方法来促使制冷空调系统效率的提升,尤其在环境干燥的地区。但与此同时,PUE指标的降低也带来了水资源消耗的升高。对于采用冷水方案的工程,PUE与WUE存在一定的负相关性。这也决定了在实践应用中需要进行权衡,找到两者之间合理的平衡区间。与此对应的是,如今很多大型数据中心工程都选址在北方等气候寒冷、干燥的地区,水资源短缺也是需要考虑的重要问题。
以往人们对数据中心资源消耗的关注点往往集中在其电力消耗或燃料消耗上,认为一个数据中心只要电力指标优良,就可以认定为其为绿色数据中心;但近几十年来,全球承受着旷日持久的系统性干旱,并且随着人口的增长,工业规模的扩大,水资源消耗变得越来越紧迫,全球水资源缺乏的现状不会改变。
因此,面对水资源日趋匮乏的态势,业内也逐渐将目光转移到数据中心的水资源消耗上来;根据Uptime institute的调查数据,数据中心平均规模大约为1MW,每年消耗的水量为26 600~30 400m³。
数据中心使用水的主要目的是散热,即利用水作为载冷工质持续带走IT设备热量。最常见的为冷冻水系统和冷却水系统,在这些系统中,冷水流经计算机机房的制冷单元;风扇吹过冷冻水散热盘管,向IT设备提供冷空气;然后水流回冷却装置中被重新冷却。冷却水系统依靠冷却塔利用水的蒸发来散发热量,利用水与空气流动接触后进行冷热交换带走热量达到蒸发散热降低水温的目的。
另外,冷凝水被重复蒸发并排放到大气中,会携带矿物质、灰尘及其他污染物。这些水必须被定期处理。上述规模的数据中心每年通过排放或补水大约会消耗5000m³的水。
总体来讲,使用传统水冷方式的1MW数据中心,每年用水量大约为30 000m³,这些数据并没有将数据中心加湿系统和空调末端泄水的消耗计算在内;另外,随着时间的推移,在水冷设备上,尤其是换热器翅片或换热管上会累积水垢或杂质,在去除这些影响空调运行安全和运行效率的污垢时,常用的方法是用水冲洗并排空,这一过程也消耗了大量的水资源。
1)冷却水蒸发采用冷却塔制取低温冷却水时,数据中心的热量主要靠冷却水的蒸发散发到大气环境中(采用干式冷却器的系统主要依靠空气与冷却水的对流换热,但其效率低,占地面积较大,且对气候条件的要求较为苛刻),水蒸发损失为数据中心水资源消耗的主要部分。
2)冷却水排水通常,数据中心冷却水系统的运行水温为32℃/37℃,该温度较容易滋生细菌,适宜藻类和污垢的生长及在管壁上的附着,并且需要通过冷却水排污来配合控制加药浓度,这一过程也会产生水的消耗。
3)IT房间加湿用水冬季,尤其是我国北方地区,室外环境相对湿度较低,机房内湿度受此影响需通过加湿系统维持机房内的湿度要求,需要消耗加湿用水。
4)软化水设备用水冷冻水及加湿水等闭式水系统在运行过程中由于泄漏、排水会造成一定的损失,为保证运行安全及系统压力,需要及时补充软化水,通过软化水设备对市政补水处理后补充到系统中。
5)设备维护用水系统运行过程中,冲洗、管道压力测试等需要的用水。
6)柴发系统运行及维护用水此部分为柴发机组排烟净化及机组冷却用水,这部分水资源消耗所占比例较小。此外,季节不同,数据中心各项用水比例会发生明显变化。
WUE指标目前还没有被广泛用于工业中,并且很少被引用,但水已经成为数据中心十分显著的因素,未来水资源利用效率一定会进入PUE度量工作中。
系统中冷却塔、冷冻主机、冷却泵及冷冻泵应是一一对应开启的,应采用电动阀控制水流,不得让水流经过已停机部分的管道,而影响处理效率。 开机的顺序是:电动阀、冷却塔、冷却水泵、冷冻主机、冷冻水泵,停机的顺序则相反,且冷冻机停机要提前半小时。 30kW以上冷却水泵应采用软启动,多台并联,最好用变频控制,根据外界环境气候设定调节水泵功率,节能效果更好。 冷却塔风机采用双速电机以及酌情适当调整风机叶片角度对于节能降噪有明显效果。 根据是否设置水池设置位置, 产生了循环水冷却系统的不同形式。 循环水泵扬程的计算很主要,只需考虑沿程阻力、流出水头及冷却塔进出水位差即可,一般取25m左右,而与冷却塔位置的高度关系不大。 冷却水泵的扬程H, 其计算公式如下:H=k(hf+hd+hm+hs+ho)k为安全系数, 取1.1~1.2:h \hd为冷却水管路沿程阻力和局部阻力;h 为冷冻机组内冷凝器的阻力;h为冷却塔进出水位差;h。 为喷嘴处的流出水头。
1.查找处于闲置状态的设备,将其关闭或者重新分配工作任务。 目前所有服务器中大约有15%到20%是从未使用过的。 闲置的服务器所消耗的能源约为100%利用率的服务器能耗的四分之三。 不过多数数据中心没有工具来查找未经使用的设备。 有效的能源管理解决方案能帮助你查找所有闲置或者未经使用的服务器,并利用资产成本分析来进行判断。 2.虚拟化。 一项最新的市场调研结果显示,在那些宣称完成了虚拟化流程部署的数据中心里,仅有35%的服务器实施了虚拟化。 换句话说,这份调研报告揭示出,寻找适合虚拟化的服务器仍然是个繁复的过程。 一项能源管理解决方案要让数据中心高管明晰每项资产的成本和数据中心的利用率。 然后虚拟化能在计划范围内针对低利用率或者高能耗对症下药。 3.存储整合。 就服务器而言,某些存储单元从未使用过。 要提高存储设备的利用率,你应该甄别重复数据,老旧数据,未经使用的数据以及低效的排列战略。 对存储设备的成本和能耗熟练掌握后,你就可以对存储整合做出明智的决策。 4.资产重新配置。 由于对能耗的关注是最近才盛行起来的,多数IT设备在配置时仍然没有能效的概念。 举例来说,Sentilla将文件服务器重新配置为在夜间和周末的低能耗模式,从而节约了大概33%的能源,通过改变服务器能源管理设置来匹配工作负载又节约了不少能源。 5.最后,数据中心高管可以推迟资本支出。 许多数据中心高管担心他们不间断电源系统(UPS)和备份发电机设置的容量。 这些供电设备在安装期间需要大量的资金投入和必要的资源配合(可能还会中断IT服务)。 能源管理工具能直接跟踪不间断电源的电力需求和容量。 好的工具还能持续监控不间断电源的容量,将所有的信息反馈给数据中心高管,让他们来回收那些已被分配但是没有使用的能源。 我是从IT号外知道的。
数据中心规划设计绿色节能措施如何打造绿色节能数据中心,解决供电和散热问题,让数据中心管理员不必为节能而困扰?要做到绿色环保、技术先进、经济合理、安全适用、确保质量,建议采用以下一些绿色节能措施:1、机房最好建在大楼的二、三层,距离大楼配电最近;2、机房尽量避免设在建筑物用水楼层的下方,造成机房水侵;3、机房选在建筑物的背阴面,以减少太阳光的辐射所产生的热量;4、排烟口设在机房的上方,排废气口设在机房的下方;5、主机房区域的主体结构应采用大开间大跨度的拄网;6、充分利用自然冷源,降低机房精密空调的使用率减少耗电;7、选用高效节能型IT设备;8、增加虚拟服务器的使用,便硬件在不增加能耗的情况下处理更多的工作量;9、在服务器不使用时将其自动转换为节能状态;10、只在设备需要时才开启制冷;11、各别地区可利用自然冷源,为机房设备降温,减少机房空调使用率;12、服务器机柜采用“面对面”或者“背对背”的摆放方式,并且封闭冷通道,降低空调冷源额外消耗;13、电力系统的合理分配;14、高可靠性新型技术的利用;总而言之,建设绿色节能高效的数据中心是未来数据中心建设的重点。 能源紧张是目前也是以后世界性的一个问题,建设绿色节能数据中心的一个主要目的也是为了降低设备能耗节省资源,这也符合整个社会发展的潮流,也是节约运营成本最直接的手段。 降低能耗是企业在每一个业务环节必须关注的问题,也是提高企业成本竞争力的有力保障。 在确保业务稳定运营的同时,降低IT长期运营成本是每一个现代企业的任务。
数据中心在节能方面的潜力,是难以想象的。根据去年3月份工信部、国家机关事务管理局、国家能源局联合印发的《国家绿色数据中心试点工作方案》透露,随着信息化快速发展,全球数据中心建设步伐明显加快,总量已超过300万个,耗电量占全球总耗电量的比例为1.1%~1.5%,其高能耗问题已引起各国政府的高度重视。我国数据中心发展同样迅猛,总量已超过40万个,年耗电量超过全社会用电量的1.5%,其中大多数数据中心的PUE(平均电能使用效率)仍普遍大于2.2,与国际先进水平相比有较大差距,如美国数据中心PUE已达1.9,先进数据中心PUE甚至达到1.2以下,可以看到,我国在降低能源消耗方面发展空间极大。与此同时,人类社会从机械化、电气化、自动化一路走来,正迈进万物互联、万物智能的智能化时代,移动互联网、云计算、物联网等产业的崛起,使得需要节能改造的数据中心日益增多,据悉,2015年我国数据中心节能改造规模已达30亿元左右。“数据中心节能市场的空间是非常大的,在未来有望达到85亿元的市场空间。”南京佳力图机房环境技术股份有限公司高级工程师张卫星认为在这样一个广阔的市场下,无论是从厂商角度还是从客户角度出发,都应该去做更多的工作。面对数据中心能源消耗猛增的形势以及节能改造规模日渐扩大的局面,工业和信息化部节能与综合利用司处长尤勇强调,要把数据中心的绿色化改造要做深做细。“绿色数据中心将是我们工作非常重要的方向。3年前,工信部就联合发改委等五大政府部门共同发布《关于数据中心建设布局的指导意见》。去年,工信部又联合国家机关事务管理局、国家能源局制定了《国家绿色数据中心试点工作方案》(简称《方案》),并按照《方案》的要求,确定了84个国家绿色数据中心试点单位。不久前第一批《绿色数据中心先进适用技术目录》也已公示,引导数据中心积极采用先进绿色技术,构建绿色数据中心。绿色数据中心工作正由点到系统全面推开。”尤勇说道。
液冷数据中心是指应用液冷技术和液冷服务器等设备的数据中心,与传统风冷服务器相比,液冷服务器的热量导出方式不同。 蓝海大脑作为专业数据中心厂商之一认为液冷数据中心节能减排技术主要有以下几点:1、充分利用机房楼顶空间,清洁的太阳能光伏直接并网发电技术,即发即用,在节能的同时还极大减少污染物排放。 2、液冷数据中心冷冻站通过板式换热系统,实现极致水侧免费冷却,华北地区全年超过94%的时间可利用室外自然冷源免费冷却。 3、采用AHU(Air Handle Unit)风墙冷却技术,通过与高温耐腐蚀服务器配合,采用全新气流组织方案,解决了空气污染及腐蚀难题,全年100%实现风侧免费冷却。 4、自研“蜂巢”预制模块技术,采用无架空地板设计,全面支持整机柜部署,在保证高质量交付的同时,成本持续下降,建设工期缩短一半。 5、液冷数据中心污水回收再利用技术,冷却水系统节水率为44.8%,液冷数据中心园区年均节水量可达到48万吨。 6、采用共享电源、共享风扇架构,部件全部标准化、模块化、一体化,支持40摄氏度环境温度长期运行。 总拥有成本(TCO)降低15%~35%,交付效率提升20倍,日可交付能力超过1万台。 7、深度学习服务器集群全面混部并采用智能流量调度系统,大幅提升服务器利用率,降低冗余服务器数量⌄通过智能液冷数据中心节电技术,在同样供电能力下,可增加25%以上的算力。 8、智能决策运维平台,由监控系统、统一管理平台、大数据分析平台、策略决策平台四大模块组成。 其故障定位准确率达92%,停电恢复时间由10分钟缩短到30秒。 9、随着液冷技术发展,PUE值更低,优势更为突出。 吕天文给记者算了一道数学题:在我国现阶段,终端用户每使用1kWh 电能,火力发电厂就要排放 0.86kg 的二氧化碳,液冷 PUE(1.2)低于传统风冷 PUE(1.8)至少50%,意味着众多数据中心的能耗,能够至少减少50%,碳排放量也将减少50%。 蓝海大脑液冷数据中心机柜冷板式、浸没式两种液冷数据中心解决方案,具有高性能、高密度、扩展性强、低碳绿色节能等特点。 液冷机柜支持4~8台液冷服务器,每台液冷服务器支持1~16块 GPU显卡,适用于深度学习训练及推理、生命科学、医药研发、虚拟仿真等场景,液冷解决方案覆盖服务器、水冷工作站、数据中心等多种产品形态。 型号蓝海大脑液冷解决方案英特尔处理器 Intel Xeon Gold 6240R 24C/48T,2.4GHz,35.75MB,DDR4 2933,Turbo,HT,165W.1TBIntel Xeon Gold 6258R 28C/56T,2.7GHz,38.55MB,DDR4 2933,Turbo,HT,205W.1TBIntel Xeon W-3265 24C/48T 2.7GHz 33MB 205W DDR4 2933 1TBIntel Xeon Platinum 8280 28C/56T 2.7GHz 38.5MB,DDR4 2933,Turbo,HT 205W 1TBIntel Xeon Platinum 9242 48C/96T 3.8GHz 71.5MB L2,DDR4 3200,HT 350W 1TBIntel Xeon Platinum 9282 56C/112T 3.8GHz 71.5MB L2,DDR4 3200,HT 400W 1TBAMD处理器 AMD锐龙Threadripper Pro 3945WX 4.0GHz/12核/64M/3200/280WAMD锐龙Threadripper Pro 3955WX 3.9GHz/16核/64M/3200/280WAMD锐龙Threadripper Pro 3975WX 3.5GHz/32核/128M/3200/280WAMD锐龙Threadripper Pro 3995WX 2.7GHz/64核/256M/3200/280WAMD锐龙Threadripper Pro 5945WX 4.1G 12核/64M/3200/280WAMD锐龙Threadripper Pro 5955WX 4.0G 16核/64M/3200/280WAMD锐龙Threadripper Pro 5965WX 3.8G 24核/128M/3200/280WAMD锐龙Threadripper Pro 5975WX 3.6G 32核/128M/3200/280WAMD锐龙Threadripper Pro 5995WX 2.7G 64核/256M/3200/280W显卡 NVIDIA A100×4, NVIDIA GV100×4NVIDIA RTX 3090×4, NVIDIA RTX 3090TI×4,NVIDIA RTX 8000×4, NVIDIA RTX A6000×4,NVIDIA Quadro P2000×4,NVIDIA Quadro P2200×4硬盘 NVMe.2 SSD: 512GB,1TB; M.2 PCIe - Solid State Drive (SSD),SATA SSD: 1024TB, 2048TB, 5120TBSASrpm&rpm,600GB,1.2TGB,1.8TBHDD : 1TB,2TB,4TB,6TB,10TB 外形规格 立式机箱210尺寸mm(高*深*宽) : 726 x 616 x A尺寸mm(高*深*宽) : 666 x 626 x B尺寸mm(高*深*宽) : 697 x 692 x 306声卡:7.1通道田声卡机柜安装 : 前置机柜面板或倒轨(可选)电源 功率 : 1300W×2; 2000W×1软件环境 可预装 CUDA、Driver、Cudnn、NCCL、TensorRT、Python、Opencv 等底层加速库、选装 Tensorflow、Caffe、Pytorch、MXnet 等深度学习框架。 前置接口 USB3.2 GEN2 Type-C×4指承灯电和硬盘LED灵动扩展区 : 29合1读卡器,eSATA,1394,PCIe接口(可选)读卡器 : 9合1SD读卡器(可选)模拟音频 : 立体声、麦克风 后置接口 PS2接口 : 可选串行接口 : 可选USB3.2 GEN2 Type-C×2网络接口 : 双万兆 (RJ45)IEEE 1394 : 扩展卡口模拟音频 : 集成声卡 3口 连接线 专用屏蔽电缆(信号电缆和电源电缆)资料袋 使用手册、光盘1张、机械键盘、鼠标、装箱单、产品合格证等
云端是个真实存在的地方。你在Instagram上发布的照片,在Facebook页面上发布的生日祝福,以及在Netflix上播放的电视节目,都不是突兀出现的。它们被保存在大量服务器上,而且所有服务器都被安置在巨大仓库中,互相连接在一起。
很少有人冒险进入这些数据中心。但在瑞典首都斯德哥尔摩,彼芭进入了这样的信息迷宫,发现它们不仅仅是托管数据的地方。这些数据中心所提供的全部热量,可以帮助这座拥有90多万人口的城市供暖。
据BBC报道,随着冬季即将来临,人们都在盼望能尽早供暖。然而将来,人们的网上活动就能帮助供暖。BBC记者艾琳·彼芭(Erin Biba)日前访问瑞典时,亲眼见证了一个雄心勃勃、有利可图的新绿色能源项目。
那么,瑞典是如何做到的呢?它能否为全球科技行业创造一种新的商业模式?
在这些数据中心中徘徊,你会注意到几件事:空气凉爽而干燥,没有任何积尘。成排的服务器塔被成千上万闪烁的灯光所覆盖,几乎看不到人。透过天花板和可移动地板看到的每个地方,都有大量的电缆通向各个方向。但更重要的是,这里真的很吵。这是因为电脑在运行中会变热,而且需要很多风扇来保持足够低的温度,以确保它们正常工作。
想象一下你的笔记本电脑所产生的热量,只是在整个仓库中散发热量可能是它的成千上万倍,毕竟这里有成千上万台电脑互相连接,并在不停地运转以完成复杂的任务。最主要的降温方式包括提供冷水、利用风扇吹凉空气以及吸收热空气等。这些热量通常被当作废物处理掉。但实际上,热量也是一种能量。这就是为什么瑞典决定用它来为民众供热的理由。
世界各地的城市都在探索如何利用数据中心的废弃热量作为额外能源
在斯德哥尔摩,这个项目被称为斯德哥尔摩数据公园,它由市政府、Fortum Varme(当地供热和制冷机构)以及其他机构合作运营。斯德哥尔摩的各大数据中心都参与进来,而随着越来越多的企业希望通过加强气候意识提高声誉,并通过一种新的商业模式赚钱,这个数字还在不断增长。最近,爱立信和服装零售连锁店H&M运营的数据中心也都加入了这个项目。
在斯德哥尔摩的大部分时间里,数据公园项目是这样运作的:冷水通过管道流入数据中心,在那里被用来制造冷空气,以防服务器过热。经过冷却过程加热的水再流回管道中,进入到Fortum Varme的工厂里,并在分散为众多住宅供热。
瑞典并不是唯一一个尝试这个想法的国家。在芬兰等地的小规模项目中,也存在类似试验。自去年以来,芬兰的某个数据中心散发的热量始终被用来为小城住宅供暖。而在美国、加拿大以及法国,也有类似的项目。只是瑞典决定在全国范围内扩大规模是一项史无前例的实验。
瑞典制冷和供热机构Fortum刚刚开放了新的供热设备,它可以帮助家庭供暖
斯德哥尔摩数据公园预计到2018年将产生足够的热量,为2500套住宅公寓供暖。但其长期目标是到2035年,满足斯德哥尔摩全部供暖需求的10%.瑞典数据中心(在全国推广类似斯德哥尔摩数据公园项目)宣称,只需要产生10兆瓦能源,就可以满足2万套现代化住宅的供暖序曲。而Facebook的数据中心通常会消耗120兆瓦能量。
加入斯德哥尔摩这个项目的主要动机源自财务好处,这些数据中心可以卖掉他们的废弃热量。同时,Fortum还为他们提供了免费的冷水。在其数据中心支持移动游戏应用和其他云计算软件的公司Interxion,相关成本/效益分析显示前景良好,为此他们正在建立全新的热捕捉设施。公司业务拓展主管玛特斯·尼尔森·哈尼(Mats Nilsson Hahne)说:这不是慈善。相反,该公司北欧分公司董事总经理彼得·班克(Peder Bank)表示:我们正试图将其转变为一项二级业务。
尽管如此,Interxion仍在与任何想在斯德哥尔摩开店的数据中心公开分享他们的新商业模式工程计划。在被问及为何要公开自己的竞争优势时,班克强调了瑞典人在应对气候变化方面的态度,他说:还有其他比竞争更大的目标,而且这是一个全球性目标。如果我能够保护更高的议程,并能继续维持生意,我就应该这么做。如果我能够吸引其他企业到来,我就应该这样做,然后我才会与之竞争。毕竟,我们都生活在同一个星球上。
布满电缆的数据中心散发大量热量,这些热量被用来为家庭供暖
瑞典一直以来都支持这样的绿色能源理念。斯德哥尔摩城市气候经理Bjorn Hugosson表示,这是因为这个国家几乎没有自然资源。他说:我们的土地上没有任何化石资源,我们没有油井或煤矿。世界能源理事会的数据显示,目前瑞典有2057座水电站,占其能源使用总量的40%.剩下的大部分能源来自核电,但目前正在逐步被淘汰。此外,瑞典还有火力发电站,其所需煤炭是从俄罗斯进口来的,它将在未来5年内被淘汰(也可能在2020年)。这个国家希望到2040年能完全避免使用化石燃料。
瑞典向来以零废物着称,该国居民回收超过99%的家庭废品,只有3%最终被扔进了废品填埋场。瑞典燃烧了大约70%的废品用以生产能源,并从邻国进口废品,以帮助实现焚烧废品满足能源需求的目标。也就是说,瑞典人并不是世界上最环保的能源使用者,这个头衔属于冰岛,该国86%的能源来自可再生资源。尽管在天气状况良好的情况下,瑞典在某些日子里可以完全避免使用化石燃料。由于风车可以产生大量能源,瑞典邻国丹麦也可经常避免使用化石燃料。事实上,丹麦还把过剩能源卖给邻国。
那么,瑞典雄心勃勃的热捕捉和再利用计划能否在其他地方取得成功呢?也许,但它需要其他改变才能成为现实。这种模式之所以能在瑞典奏效,是因为这个国家的公民依靠政府为他们提供热水以便为家庭供暖。地区供热始于上世纪50年代的斯德哥尔摩(当时靠燃油),Fortum Varme从那时开始向医院输送热水。当上世纪70年代石油危机爆发时,供暖系统扩展到全国各地。今天,Fortum向大约1.2万栋建筑或斯德哥尔摩90%的城区提供热量。起初,它们提供的供热服务是通过烧煤产生的,但今天来自于生物燃料,即该国庞大的林业工业生产留下的木浆,通过船舶被运至斯德哥尔摩。
由于瑞典人回收了所有的东西,他们也在废水排放后重新利用热水。Fortum的媒体关系主管乔纳斯·柯勒特(Jonas Collet)说:洗澡时,流入下水道的热水就会被处理,然后泵入大海。海水变暖了,但鱼儿们不喜欢这种环境。30年前,我们认为这是一种浪费。如今,我们可以再利用这些水。
因此,如果其他城市想要效仿斯德哥尔摩的做法,他们就需要建设地下管道基础设施,以及为居民供暖的商业模式。但这不是不可能的,世界上有很多城市都在这样做,包括加拿大、纽约和几乎整个冰岛的城市。但它也不应被视为灵丹妙药。瑞典皇家工程科学学院成员、许多绿色能源公司的智能电网顾问博·诺马克(Bo NormARK)警告说,他认为瑞典的计划可能并非可以无限扩展的。最终,这个国家可能不需要更多的数据中心加入进来。
诺马克说:人们高估了对热量的需求,我们会有多余的热量。我们可以出口电力,但我们无法出口热量。但是,他补充道:在斯德哥尔摩,这种方法之所以奏效,是因为这座城市发展迅速,热量有货币化价值。
当新的数据中心开始在这个快速发展的城市中出现的时候,它们很快就可以加入进来。斯德哥尔摩数据公园由该市周边的四个主要数据公园组成,它们被连接到清洁能源电网中,并配备了一个即插即用的装置,让公司可以连接到冷却供水系统和热循环系统上。目前,首个项目已经完成,即当地名为Kista社区的硅谷,那里目前托管着Interxion等公司的数据中心。还有两家数据公园将于2018年投入使用,2019年还有四家。所有数据中心需要做的就是建立起来,然后加入现有网络中。
Fortum Varme的市场数据中心冷却和热恢复负责人Johan Borje说:我们正在改变整个行业的经济。除此之外,瑞典政府也意识到这项计划的好处,今年降低了数据中心的电力税。显然,瑞典不希望数据中心寻找借口转移到欧洲其他地方。
尽管如此,目前发达国家仍依赖于数据中心,而这种需求将继续增长。没有它们,我们的设备就无法正常使用,我们的信息也不会移动。这意味着越来越多的科技图书馆将会出现在这个星球上。它们可以让我们的数字世界保持运转,同时在斯堪的纳维亚和更远的地方,同时回收废品和生产清洁能源。
我在查阅资料的时候看到中大咨询官网上有相关案例,是中大咨询对ICT行业的领军企业——华为进行标杆研究,分析其绿色低碳发展策略和具体实施路径,分享给有需要的友友参考借鉴。 在战略层面,将“绿色环保”作为可持续发展战略框架的重要组成部分,构建绿色低碳发展体系,从业务、运营、生态共建等层面推进减碳目标实施初心。 通过构建清洁高效、低碳循环的绿色发展体系来推进战略方案的实施,分别从减少碳排放、加大可再生能源使用、促进循环经济等三大方面入手。 在经营业务层面,可以从以下几点入手:1、开发绿色产品:进行全生命周期碳足迹评估,确保从源头到终端的低碳减排。 2、绿色运营:数据中心推出液冷方案和冷却系统,助力数据中心散热降耗;建立了能源管理体系,例行节能改造项目;打造智慧园区形成绿色运营管理闭环,推进产业园区高质量发展。 3、绿色生态共建:建立利益相关方识别和参与机制,对应关注点制定和实施绿色低碳发展策略,促进了绿色环保战略的推进。
本文地址:http://www.hyyidc.com/article/24819.html