数据中心空调系统对于保证服务器硬件的稳定运行至关重要,其生命周期管理策略应包括以下几个阶段:
数据中心空调系统有三种主要类型,每种类型都有其独特的优点和缺点:
在选择空调系统类型时,应考虑以下因素:
工信部、国家机关事务管理局、国家能源局近日联合印发《关于加强绿色数据中心建设的指导意见》(下简称《意见》),明确提出要建立健全绿色数据中心标准评价体系和能源资源监管体系,到2022年,数据中心平均能耗基本达到国际先进水平。 《意见》指出,引导大型和超大型数据中心设计电能使用效率值不高于1.4;力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 基本原则 政策引领、市场主导。 充分发挥市场配置资源的决定性作用,调动各类市场主体的积极性、创造性。 更好发挥政府在规划、政策引导和市场监管中的作用,着力构建有效激励约束机制,激发绿色数据中心建设活力。 改造存量、优化增量。 建立绿色运维管理体系,加快现有数据中心节能挖潜与技术改造,提高资源能源利用效率。 强化绿色设计、采购和施工,全面实现绿色增量。 创新驱动、服务先行。 大力培育市场创新主体,加快建立绿色数据中心服务平台,完善标准和技术服务体系,推动关键技术、服务模式的创新,引导绿色水平提升。 主要目标 建立健全绿色数据中心标准评价体系和能源资源监管体系,打造一批绿色数据中心先进典型,形成一批具有创新性的绿色技术产品、解决方案,培育一批专业第三方绿色服务机构。 到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的电能使用效率值达到1.4以下,高能耗老旧设备基本淘汰,水资源利用效率和清洁能源应用比例大幅提升,废旧电器电子产品得到有效回收利用。 重点任务 (一)提升新建数据中心绿色发展水平 1.强化绿色设计 加强对新建数据中心在IT设备、机架布局、制冷和散热系统、供配电系统以及清洁能源利用系统等方面的绿色化设计指导。 鼓励采用液冷、分布式供电、模块化机房以及虚拟化、云化IT资源等高效系统设计方案,充分考虑动力环境系统与IT设备运行状态的精准适配;鼓励在自有场所建设自然冷源、自有系统余热回收利用或可再生能源发电等清洁能源利用系统;鼓励应用数值模拟技术进行热场仿真分析,验证设计冷量及机房流场特性。 引导大型和超大型数据中心设计电能使用效率值不高于1.4。 2.深化绿色施工和采购 引导数据中心在新建及改造工程建设中实施绿色施工,在保证质量、安全基本要求的同时,最大限度地节约能源资源,减少对环境负面影响,实现节能、节地、节水、节材和环境保护。 严格执行《电器电子产品有害物质限制使用管理办法》和《电子电气产品中限用物质的限量要求》(GB/T)等规范要求,鼓励数据中心使用绿色电力和满足绿色设计产品评价等要求的绿色产品,并逐步建立健全绿色供应链管理制度。 (二)加强在用数据中心绿色运维和改造 1.完善绿色运行维护制度 指导数据中心建立绿色运维管理体系,明确节能、节水、资源综合利用等方面发展目标,制定相应工作计划和考核办法;结合气候环境和自身负载变化、运营成本等因素科学制定运维策略;建立能源资源信息化管控系统,强化对电能使用效率值等绿色指标的设置和管理,并对能源资源消耗进行实时分析和智能化调控,力争实现机械制冷与自然冷源高效协同;在保障安全、可靠、稳定的基础上,确保实际能源资源利用水平不低于设计水平。 2.有序推动节能与绿色化改造 有序推动数据中心开展节能与绿色化改造工程,特别是能源资源利用效率较低的在用老旧数据中心。 加强在设备布局、制冷架构、外围护结构(密封、遮阳、保温等)、供配电方式、单机柜功率密度以及各系统的智能运行策略等方面的技术改造和优化升级。 鼓励对改造工程进行绿色测评。 力争通过改造使既有大型、超大型数据中心电能使用效率值不高于1.8。 3.加强废旧电器电子产品处理 加快高耗能设备淘汰,指导数据中心科学制定老旧设备更新方案,建立规范化、可追溯的产品应用档案,并与产品生产企业、有相应资质的回收企业共同建立废旧电器电子产品回收体系。 在满足可靠性要求的前提下,试点梯次利用动力电池作为数据中心削峰填谷的储能电池。 推动产品生产、回收企业加快废旧电器电子产品资源化利用,推行产品源头控制、绿色生产,在产品全生命周期中最大限度提升资源利用效率。 (三)加快绿色技术产品创新推广 1.加快绿色关键和共性技术产品研发创新 鼓励数据中心骨干企业、科研院所、行业组织等加强技术协同创新与合作,构建产学研用、上下游协同的绿色数据中心技术创新体系,推动形成绿色产业集群发展。 重点加快能效水效提升、有毒有害物质使用控制、废弃设备及电池回收利用、信息化管控系统、仿真模拟热管理和可再生能源、分布式供能、微电网利用等领域新技术、新产品的研发与创新,研究制定相关技术产品标准规范。 2.加快先进适用绿色技术产品推广应用 加快绿色数据中心先进适用技术产品推广应用,重点包括:一是高效IT设备,包括液冷服务器、高密度集成IT设备、高转换率电源模块、模块化机房等;二是高效制冷系统,包括热管背板、间接式蒸发冷却、行级空调、自动喷淋等;三是高效供配电系统,包括分布式供能、市电直供、高压直流供电、不间断供电系统ECO模式、模块化UPS等;四是高效辅助系统,包括分布式光伏、高效照明、储能电池管理、能效环境集成监控等。 (四)提升绿色支撑服务能力 1.完善标准体系 充分发挥标准对绿色数据中心建设的支撑作用,促进绿色数据中心提标升级。 建立健全覆盖设计、建设、运维、测评和技术产品等方面的绿色数据中心标准体系,加强标准宣贯,强化标准配套衔接。 加强国际标准话语权,积极推动与国际标准的互信互认。 以相关测评标准为基础,建立自我评价、社会评价和政府引导相结合的绿色数据中心评价机制,探索形成公开透明的评价结果发布渠道。 2.培育第三方服务机构 加快培育具有公益性质的第三方服务机构,鼓励其创新绿色评价及服务模式,向数据中心提供咨询、检测、评价、审计等服务。 鼓励数据中心自主利用第三方服务机构开展绿色评测,并依据评测结果开展有实效的绿色技术改造和运维优化。 依托高等院校、科研院所、第三方服务等机构建立多元化绿色数据中心人才培训体系,强化对绿色数据中心人才的培养。 (五)探索与创新市场推动机制 鼓励数据中心和节能服务公司拓展合同能源管理,研究节能量交易机制,探索绿色数据中心融资租赁等金融服务模式。 鼓励数据中心直接与可再生能源发电企业开展电力交易,购买可再生能源绿色电力证书。 探索建立绿色数据中心技术创新和推广应用的激励机制和融资平台,完善多元化投融资体系。 保障措施 (一)加强组织领导。 工业和信息化部、国家机关事务管理局、国家能源局建立协调机制,强化在政策、标准、行业管理等方面的沟通协作,加强对地方相关工作的指导。 各地工业和信息化、机关事务、能源主管部门要充分认识绿色数据中心建设的重要意义,结合实际制定相关政策措施,充分发挥行业协会、产业联盟等机构的桥梁纽带作用,切实推动绿色数据中心建设。 (二)加强行业监管。 在数据中心重点应用领域和地区,了解既有数据中心绿色发展水平,研究数据中心绿色发展现状。 将重点用能数据中心纳入工业和通信业节能监察范围,督促开展节能与绿色化改造工程。 推动建立数据中心节能降耗承诺、信息依法公示、社会监督和违规惩戒制度。 遴选绿色数据中心优秀典型,定期发布《国家绿色数据中心名单》。 充分发挥公共机构特别是党政机关在绿色数据中心建设的示范引领作用,率先在公共机构组织开展数据中心绿色测评、节能与绿色化改造等工作。 (三)加强政策支持。 充分利用绿色制造、节能减排等现有资金渠道,发挥节能节水、环境保护专用设备所得税优惠政策和绿色信贷、首台(套)重大技术装备保险补偿机制支持各领域绿色数据中心创建工作。 优先给予绿色数据中心直供电、大工业用电、多路市电引入等用电优惠和政策支持。 加大政府采购政策支持力度,引导国家机关、企事业单位优先采购绿色数据中心所提供的机房租赁、云服务、大数据等方面服务。 (四)加强公共服务。 整合行业现有资源,建立集政策宣传、技术交流推广、人才培训、数据分析诊断等服务于一体的国家绿色数据中心公共服务平台。 加强专家库建设和管理,发挥专家在决策建议、理论指导、专业咨询等方面的积极作用。 持续发布《绿色数据中心先进适用技术产品目录》,加快创新成果转化应用和产业化发展。 鼓励相关企事业单位、行业组织积极开展技术产品交流推广活动,鼓励有条件的企业、高校、科研院所针对绿色数据中心关键和共性技术产品建立实验室或者工程中心。 (五)加强国际交流合作。 充分利用现有国际合作交流机制和平台,加强在绿色数据中心技术产品、标准制定、人才培养等方面的交流与合作,举办专业培训、技术和政策研讨会、论坛等活动,打造一批具有国际竞争力的绿色数据中心,形成相关技术产品整体解决方案。 结合“一带一路”倡议等国家重大战略,加快开拓国际市场,推动优势技术和服务走出去。 结语 据悉,在数据中心当前的后期运营,能耗是最大成本,占比超过50%。 降低能耗效率(PUE)值,一直是业界相关部门关心的重点。 工信部在2017年4月发布的《关于加强“十 三五”信息通信业节能减排工作的指导意见》中指出:“十二五”期间新建大型数据中心的能耗效率(PUE)要普遍低于1.5;到2020年,新建大型、超大型数据中心的能耗效率(PUE)值必须达到1.4 以下。 去年3月,工信部首次公布的《全国数据中心应用发展指引》中称:全国超大型数据中心平均PUE(平均电能使用效率)为1.50,大型数据中心平均PUE为1.69。 而根据“十三五规划”,到2020年,新建大型云计算数据中心PUE值将不得高于1.4。 如今,三部门联手针对绿色数据中心建设进一步提出了明确的指导意见。 在这样的大背景下,数据中心运营商如何运用新技术、新架构降低能源降耗,实现数据中心的绿色发展,将成为行业的关注热点,与此同时,节能降耗的大趋势之下,也将带来更多的市场机遇。
如何选择数据中心UPS?UPS系统分为三大类:后备式(或离线)、在线互动式和双转换式(在线)。 当然,不同的厂商会提供不同配置的UPS,客户根据自己的目标、应用、和功能要求,以及他们的产品差异化的愿望,选择所需要的UPS。 除了这些主要的配置之外,UPS系统以它们的储能方法不同,分成两大阵营:电池储能和飞轮储能。 电池,你可能很熟悉,以化学形式存储能量,而飞轮是以运动的形式存储能量(转动的轮子)。 鉴于这些选项,您应该如何去选择您的UPS配置呢?知己知彼一般来说,您不会“错误”地选择UPS系统配置。 不过,如果你不事先做一些研究,你可能会选择不到较理想的配置。 因此,如何选择合适的UPS配置的问题,就要更好地理解如何选择最适合于需求的系统,但是,如果你不知道这些需求是什么,是不可能做出一个很好决定的。 每个选项都涉及到与其他选项的相对权衡,对一个公司是奇妙完美的设备,对另一个公司来说,可能完全是不足的。 下面是当您评估不同的UPS选项时的一些注意事项:财政预算。 虽然这是名单上的第一位,但它不应该是你唯一的关注。 首先要清晰了解预算,设定UPS系统的投入资本和运营成本。 UPS由于缺少完美的效率,需要把能量储存在电池或飞轮中,需要花钱来操作,它们也将像所有的设备一样,需要维修。 但是不要忘了这句格言:“你会得到你所支付的”,现在的花费可以弥补数据中心停机时间内设备的损坏和因此造成的损失。 可用性。 您的数据中心是否需要每天每毫秒都在运行呢?难道连一分钟的停机时间都会转化为数万或数十万美元的损失吗?如果是这样,那么您选择的UPS系统不应该是那些只能够容忍几个小时的停机时间。 您的UPS配置的选择应与您的可用性需求相一致,并应根据数据中心停机的潜在损失,设置您的预算。 冷却基础设施。 根据选择的UPS系统,给您的设施增加冷负荷。 对于大型数据中心来说,甚至UPS效率降低一个或两个百分点都可能转化为大量的热量,多余的热量必须去除,以保护设备。 您现有的基础设施可以处理这个负荷吗,或者您的UPS有必要升级吗?电能质量。 所有的UPS都是在停电或电力不足的情况下,提供临时的备用电源。 但您的设备还需要更多的保护吗?在功率尖峰,浪涌和其他情况时,会怎么样呢?并非所有的UPS系统都能够防止这些类型的电能质量问题的。 你可以指望你的电力公司提供小于理想的电力,但是,如果您的设备是高度敏感的,你也应该考虑在您的UPS配置中的电能质量功能。 空间。 UPS系统占用宝贵的数据中心地面空间,所以确保您选择的配置不会要求在您的设施中增加更多的空间。 UPS的设计考虑。 如果您知道对UPS的期望,您就是处在一个很有利的位置,以便作出明智的设计选择。 有后备式、在线互动式和双转换式UPS系统,以及相关的电池与飞轮之间的差异。 这里有一些在您选择时,其他的设计方面的考虑。 冗余。 您有一个临时的备份电源系统(UPS),那么为什么不备份您的备份呢?如果可用性是设计的关键考虑,那么冗余是必要的。 增加后备式UPS,可以避免单点故障,从而提高电源系统的可靠性。 一个通常的备份配置为N +1(例如,如果您需要六台UPS运行您的数据中心,那么N +1的设计涉及七个装置),其他的包括2N(所需要装置数的一倍)、2N +1等。 更多的冗余可以提高可靠性或可用性,但同时也需要更多的设备成本(较高的资本性支出),更多的地面空间(取决于配置)和更低的效率。 能源利用效率。 能源价格非常高,而且越来越高。 眼下,效率只是在商言商,但是在不久的将来,它可能会成为监管的任务。 因此,在选择您的UPS系统时,要考虑效率。 如果你需要最大限度的保护,你可能愿意牺牲几个百分点的效率,以获得更高的可靠性,但要记住,双转换系统,所有输入到设施的电力都会通过您的UPS。 因此,每一个百分点的效率低下,都是浪费,并且能量将会转换成热量,你的冷却系统必须将它们去除。 因此,在效率和保护之间,你可能需要有一个审慎的平衡。 对环境的影响。 如果贵公司把保护环境作为经营的一部分,那么您可能会考虑把飞轮作为铅酸电池(绝大多数UPS系统的储能选项)的替代品。 飞轮,只不过是通过旋转来储存能量的机械轮子,是一种对环境低影响的选项,它们与电池相比,还提供了其它潜在的好处,如:较少的维护。 设计复杂性。 简单的设计往往是不太容易出现人为的错误和独立的故障,但他们可能还缺乏一些您更愿意在UPS系统中看到的功能。 例如,在线互动式UPS系统中的开关,是潜在的故障点,在双转换设计中,就不存在这个故障点。 此外,复杂的设计与简单的设计相比,可能需要更多的维护(或简单地说,就是维修成本较高)。 电能质量的改善。 如果你只是在电源故障或电压下降时,需要短暂的时间保护,然后,关闭系统或切换到一个更长远的备份系统(例如,柴油发电机装置),那么,一个简单的后备式UPS就可能足以满足您的需求。 但是如果您需要保护设备,防止它们在电源浪涌和尖峰时受到损害,那么,您需要的UPS系统应该有保证电能质量的功能。 例如,双转换系统,将所有输入的直流电源,转换回交流电。 这种设计从根本上消除了所有的电能质量问题,对关键业务系统或涉及敏感的IT应用是非常重要的。 模块化。 如果您预期您的IT需求会增长,那么应该考虑模块化的方法。 “超前购买”,购买比你现在需要的更多的设备,将花费你更多的资本支出、存储空间和潜在的运行费用。 模块化方法允许你在需要时,添加基础设施,避免需求增长后,以前的设施变成废物。 这些都是一些为您的数据中心购买UPS时泛泛的考虑。 当然,你也将不得不在供应商提供的各种设计、给定的产品和每个模式的成本之间进行选择。 但上述的考虑中,既评估了您的需求,也评估UPS系统,这将有助于引导您做出适合您具体情况的最佳选择。 出自:
一般说来,数据中心设备运行时的最佳温度为22度,上下浮动不能超过2度;空气的相对湿度为45%—65%。 如果超过正常温度和湿度,设备运行时发生障碍的机率就会大大增加。 在潮热、高温的条件下,设备的性能和运转不可避免地会受到影响,数据遭到破坏或丢失的可能性也大大增加。 据统计,在基准温度情况下,温度每升高10℃计算机的可靠性就下降25%。 西信中心的IDC专家认为在持续高热的状况下,数据中心有可能因为如下几个原因导致问题的出现:1.设计之初设计的制冷量已经满足不了发展的需要,负载不断增加,而制冷量却没有变,因此机房内温度偏高,环境温度高到一定程度的时候,机房内设备将突破承受的极限,于是热点不断出现,最终导致宕机。 2.制冷设备可能会因为环境高温的原因,导致自身系统发热量过大,出现超负荷运转,进而导致故障的发生,严重时可能导致整个数据中心的瘫痪。 3.高热的天气给市电供电系统造成了巨大的压力,可能会出现突发性断电的情况。 同时,UPS配置的阀控式铅酸免维护蓄电池在高温情况下寿命也会急剧下降。 若是数据中心未能及时加以妥善应对,后果不堪设想。 为确保企业数据中心的服务器、存储等设备能够在高温环境正常运行,降低额外的维护和基础设施成本,同时降低总体能耗,使用先进的制冷设备是一个必然的选择。 目前西部信息中心也是国内采用先进的2种不同空调制冷方式的少数专用IDC机房之一,其分别规划了三套独立空调系统空调系统:用于管理用房和10KV高配室,总制冷量约388KW。 2.冷冻水空调系统:用于IDC机房及电力电池区制冷,配置了3台1250冷吨的中央空调冷水机组、10台大功率水泵、2台板式换热水,按双管水路冗余配置总制冷量约KW。 中央空调冷冻水系统(机组品牌:特灵,水泵品牌:格兰富)屋顶配置闭式冷却塔集中制备冷却水;冷却水进入楼层空调机房,与专用空调配套的水冷冷凝器进行热交换从而冷却冷媒;被冷却后的冷媒进入IDC机房内的恒温恒湿空调机组,再冷却机房内的空气温度3.闭式冷却塔水冷空调系统(风冷空调系统):仅用于IDC机房制冷,配置了8台300冷吨的闭式冷却塔,总制冷量约KW。 闭式冷却塔水冷空调系统(机组品牌:荏原;板式交换器品牌:APV)IDC机房采用恒温恒湿专用空调机组,气流组织形式为下送风、上回风。 借助该系统组合不仅具备高散热能力和可靠性等优势,还使得方案中的服务器、存储和网络设备允许用户在更高温度条件下安全、稳定的运行,避免因高温宕机“罢工”。
对于数据机房来说,风冷空调与水冷空调相比较没有任何优势可言,两种类型的空调产品是一样的,都适用于机房。 水冷空调指的是以冷水作为冷热源的设备,其一般都会配备专门的冷却塔、冷却水泵等设备,水冷空调并不是说就会导致机房内有水,“水冷空调”跟“冷水空调”是有很大不同的,不能混淆。 在某些偏远地区的机房,使用风冷式空调更靠谱一些,因为这些地区的水源条件可能会不好。
行列冷冻水式,但楼里必须是有冷冻水。节约机房空间和耗能。还是要按时间情况选型!
易扩容构建可扩展散热可以参考 方案
数据中心机房建设正在加速,面对4年为一个周期倍增的热
流密度,需要在建设初期更好的规化机房散热.高速运算及
庞大的数据量产生更大的热量密度,致使今天的数据中心规
划者需要做出更明智的决策,必须设想未来的电力供应与散
热情况变得更严峻。如何解决散热,如何设计一个可扩展的
散热,在当前的数据中心设计方案中日益突出。
节能规划
我国数据机房的PUE值明显低于发达国家,如何减少占据机
房近1/3-1/2能耗的空调能耗,成为新机房建设及原有机房
改造讨论的热点。采用高能效机组带来运行成本的大幅降低
,利用良好的冷热通道分离及内部气流循环散热,可以有效
减少解决局部过热或高密散热能耗。
水冷自然冷工作原理图
风冷自然冷工作原理图
请点击输入图片描述
两种自然冷技术对比
系统架构
如上原理图,水冷系统内部有“氟”和“水”两套独立系统,部件更多,结构较复杂。
风冷系统结构简单,在同一系统中实现常规制冷、混合制冷和节能系统制冷。不引入新风,保持了机房密封性、洁净度。系统简单可靠。
安全可靠
水冷系统有大量冷却水进入机房,有漏水隐患。风冷系统无水进入机房,更加安全可靠。
节能效率
水冷方式的热量经过:室内空气与制冷剂(风冷换热)-制冷剂与乙二醇(水冷换热)-乙二醇与室外空气(风冷换热);风冷方式的热量经过:室内空气与制冷剂(风冷换热)-制冷剂与室外空气(风冷换热)。水冷方式多了一层水与室内外空气的换热,因而增加了换热损失。
风冷自然冷工况时,制冷剂在与室内外换热时有相变,而水冷自然冷工况时水没有相变。因此风系统制冷剂的载热效率更高。
风冷自然冷系统具更高的切换温度,因此具有更高的效率。
投资对比
风冷自然冷系统结构简单,部件少,初投资更低。
可维护性
水冷自然冷系统需要增加水管路的维护,对维护专业性要求更高。考虑防冻的乙二醇溶液属于有机溶液,国家对排放有严格要求。因此其综合维护成本高于风冷自然冷系统。
数据机房的空调系统节能对于降低能源成本和提高可持续性至关重要。通风降温设备的选择是其中一个关键因素。以下是一些数据机房空调系统节能措施以及如何选择通风降温设备的建议:
数据机房空调系统节能措施:
通风降温设备可以作为数据机房空调系统的补充,帮助降低温度和提高空气质量。以下是如何选择通风降温设备的建议:
空调系统节能发展方式
在伴随着上世纪中期计算机的产生,数据中心也应运而生。对于数据中心来说,空调从来就是不可或缺的重要设备。下面是我为大家整理的空调系统节能发展方式,欢迎大家阅读浏览。
一、数据中心空调技术发展回顾
伴随着上世纪中期计算机的产生,数据中心也应运而生。对于数据中心来说,空调从来就是不可或缺的重要设备。随着数据中心的不断发展,与之配套的数据中心空调技术也在迅速发展,其发展大致可分为以下三个时期:
早期数据中心空调系统(1950~1970年)
前期的机房是为某台计算机(大、中、小型机)专门建设的,并没有统一的标准,完全是在摸索中建设的。由于没有专门的机房专用空调设备,这时机房的空调采用普通民用空调或利用大楼空调系统集中供冷的舒适性空调设备,然而,舒适性空调是针对人所需求的环境条件设计的,并非为了处理数据机房的热负荷集中和热负荷组成,只有降温功能,没有精密的温度控制,没有湿度控制功能,没有严格的除尘措施,也没有测试指标。在机房内使用舒适性空调时遇到如下问题:
(1)舒适性空调无法保持机房温度恒定,可能会导致电子元气件的寿命大大降低。
(2)无法保持机房温度均匀,局部环境容易过热,从而导致机房电子设备突然关机。
(3)无法控制机房湿度、机房湿度过高,会导致产生凝结水,可能造成微电路局部短路;机房湿度过低,会产生有破坏性的静电,导致设备运行失常。
(4)风量不足和过滤器效果差、机房济净度不够,会产生灰尘的积聚而造成电子设备散热困难,容易过热和腐蚀。
(5)舒适性空调设计选材可靠性差,从而造成空调维护量大、寿命短。
发展期数据中心空调系统(1970~2000年)
出现了专门为单个计算机系统设计的机房,有了专用的机柜(大、中、小机柜),并且开始逐步制订标准,包括机房选址、面积等。机房制冷也从普通的民用舒适性空调机和集中冷却,开始转向采用恒温恒湿的机房专用精密空调机,机房除尘方面采用新风系统和机房正压防尘,从而实现数据中心保持温湿度恒定、良好的空气洁净度、具备远程监控等要求。机房专用精密空调在设计上与传统的舒适性空调有着很大区别,表现在以下几个方面:
(1)大风量、小焓差
(2)全年制冷运行
(3)恒温恒湿控制
(4)送回风方式多样
(5)可靠性较高
创新期数据中心空调系统(2000~至今)
随着互联网的发展,信息化的`来临,对数据中心的需求也逐渐增大。数据中心也逐渐进入到各个行业,大家对数据中心的理解和要求也出现了不同之处。一般企业认为数据中心是成本中心,数据中心租赁企业认为数据中心是利润中心,金融行业对数据中心可靠性要求严格,制造业数据中心对易用性和成本提出很高要求。多种不同的需求促进了数据中心行业的迅速发展和创新方案的产生。
如送风方式的创新,从下送风到靠近热源的列间空调设备;冷源的创新,自然冷源的应用逐渐走向普及;建设模式的创新,模块化的方案;工业化创新,大型数据中心引入工业化的建设理念;各种空调设备的创新,目前设备的能效,性能,控制等和10年前不可同日耳语。
二、数据中心空调系统设计发展趋势
进入21世纪,数据中心呈现出日新月异的高速发展态势,低碳化、虚拟化、模块化成为数据中心发展的必然要求,伴随着数据中心的高速发展,在保障高可用性的基础上,数据中心空调系统设计的可用性、绿色节能、动态冷却、高密度制冷是未来的发展趋势。
1、可用性
数据中心对可用性的要求远远高于普通的商业楼宇,空调系统同样如此。目前对可用性的要求一般为A级或B级,需要空调系统有冗余设计,出现故障要有应急方案。传统的分散式空调系统可用性比较高,设置冗余后,单台机组不会影响数据中心的正常运行;大型数据中心应用的集中冷源系统,对可用性带来更多的挑战,多个节点需要设计能备份的冗余方案。
2、绿色节能
随着绿色数据中心概念的深入人心,建设具备节能环保特点的绿色数据中心已经成为数据中心建设和使用方以及设备供应商的共识。在低碳潮流下,数据中心急需有所作为。制冷系统是数据中心的耗电大户,约占整个系统能耗的30%~45%,制冷系统的节能受到了前所未有的关注。优化送风方式、冷热通道布局、冷热通道隔离、智能群控、利用室外自然冷源等方案已经呈现出百花齐放的现象。还有数据中心采用了热回收装置产生热水,作为生活、洗澡、游泳池等用途,降低了整个系统的碳消耗。
在温湿度设定方面,ASHRAE在2011版本中推荐的温度范围为18℃~27℃,推荐的湿度范围为大于5.5℃的露点温度的相对湿度,即小于60%的相对湿度和15℃的露点温度。放宽的要求在保证机房设备正常运行的同时,可以减少机房制冷、加热、加湿、除湿的耗能,降低机房空调系统的能耗并提高能效。
在节能机房空调设备方面,变容量压缩机、高效EC风机、节能智能控制、利用自然冷源等技术的应用使得机房空调机组的能效和适应性越来越强。
对于水的关注也在逐步进入大家的视野,WUE,水的消耗和循环水应用,雨水的应用也在数据中心的设计中得到重视。
3、动态化
在新型数据中心的建设和应用中,“按需制冷”、或者“动态制冷”也成为数据中心冷却方案中一项很重要的评价标准。所谓“按需制冷”指的是数据中心空调的冷量输出是伴随着IT热负荷的变化而变化,是一个动态的、可调节的输出。随数据中心发热密度的不断增大,数据中心空调除了提供稳定、可靠、绿色的冷却的同时,如何防止出现局部热点也成为冷却方案需要重点考虑的需求之一。
数据中心虚拟化的发展使得服务器等设备的发热量会有更大波动,包括不同时间以及不同空间的变化。机房内不同的IT设备所需的冷却温度是不同的,甚至不同年代的同类型设备所需的冷却温度也不同。这就相应地要求制冷系统适应这种趋势,要能提供动态的制冷方案,满足不同时间和不同空间的需求。因此,动态制冷更能适应虚拟化需求。
目前,动态制冷主要应用的技术有风量智能调节技术(温度控制或静压控制),变容量压缩机技术,智能控制系统等。采用动态智能制冷技术就是为了区别对待数据中心机房中不同设备的冷却需要。动态智能冷却技术通过建置多个传感器群组的感应器来监控温度根据散热需求针对性地动态供应冷却气流,其风量大小可以根据需要随时调节,从而达到节能目的。
冷源的利用率的提升也是提高数据中心冷却效率的另外一个重要途径,并被业界所重视。在气流组织优化方面,从最初的大空间自然送风方式,逐渐升级到如地板送风、风道送风等一些粗放型的有组织送风方式,再到当前的机柜送风、或者封闭通道冷却方式的运行,甚至有了更前沿的针对机柜、芯片、散热元件的定点冷却方式的应用。
4、高密度
随着数据中心单位用电量不断增加,机房的发热量越来越高,而高功率密度机架服务器、刀片服务器等高热密度设备的应用,造成机房的单个机柜功耗不断提高,单位面积热量急剧上升,因此高热密度的机房一些问题逐渐涌现出来。
经过大量的实验验证发现,当单个机柜(服务器)的热负荷过高时,如果还是采用传统方式的机房专用空调来解决,就会造成以下问题:1)机房环境温度控制得不理想,会有局部“热点”存在;2)由于设备需要通过大量的循环风来带走如此多的热量,采用传统的机房空调系统会占用大量的机房空间。上送风机组需要采用风管的截面积尺寸非常巨大,下送风机组的架空地板的高度需要提高很多,会造成很多已经运行的机房将无法继续使用。
因此,机房空调制冷系统也必须做出相应的改进。高热密度制冷系统在解决机房内局部过热方面,成为机房制冷系统的重要组成部分。目前,高密度制冷方面,应用较成熟的技术主要有封闭冷热通道、列间制冷,而背板冷却、芯片冷却等新技术则是未来发展方向。
更有甚者,在部分高热流密度应用中,放弃了传统的对流散热方式而采用导热散热方式,比如微通道冷却技术的应用,冷板(Cold Plate)散热技术的应用等等。
综合来看,与Free-Cooling应用、精确送风、定点冷却这些元素相关的应用成为当前数据中心冷却技术的热点及发展方向。
;由冷却塔+冷却水泵+冷却水供水及回水管路组成的空调冷却水系统。 由于高功率密度数据机房在空调失去制冷条件下机房温度累积非常迅速,空调设备短时间停止供冷就可造成IT设备高温宕机。 因此在进行新一代数据中心的规划设计时应充分考虑到连续制冷的必要性。 一种观点认为,在数据中心设计阶段进行负荷评估时往往大于后期实际装机的负荷,因此认为过度强调连续制冷一方面会造成空调系统配电设备投资的加大,另一方面还可能造成后期设备利用率低等问题。 但按照IT技术的发展趋势,每5年左右功率密度会有一次技术更新,而数据中心一般设计生命周期一般不低于30年,因此在数据中心的规划设计阶段必须考虑到后期扩容和技术更新。 数据中心连续制冷的完整解决方案不仅包括空调末端、冷冻水泵的不间断运行,还应设置蓄冷罐储备一定的冷冻水用于冷水机组停止工作时可以通过蓄冷罐向空调水系统补充冷水。 为空调末端和冷冻水泵均配置UPS保持数据机房的末端空调在市电停电、高压油机恢复供电前机房内空气继续循环流动,转将冷冻水管路中冷冻水继续被输送至空调末端机房提供冷量,储存在蓄冷罐内的冷冻水补充到管路中为冷冻水管路中继续补充冷量以满足连续制冷需求。
数据中心的能耗由以下几部分组成。
(1)IT设备。
(2)制冷系统设备。
(3)供配电系统设备。
(4)其他设备。
典型数据中心能耗构成如图所示。其中,数据中心能耗比重最大的部分为IT设备,其次为制冷系统设备、供配电系统设备及其他消耗电能的数据中心设施。
随着数据中心规模扩大及建筑体量的增大,冷水系统方案得到越来越多的应用。随之而来的是大量水资源的消耗及循环水的净化处理问题。同时,若采用蒸发冷却方案,其对清洁水的要求也越来越高。从能源利用的综合角度来看,单纯地靠PUE指标难以全面准确地评估数据中心的能耗水平,为全面合理地评价绿色数据中心工程,TGG在2009年首次提出并引入针对水利用效率评价的WUE(Water UseageEffectiveness)指标。水利用效率作为评价数据中心用水状况的指标,定义为数据中心水资源的全年消耗量与数据中心IT设备全年耗电量的比值,单位为L/kW·h。
WUE=数据中心水资源的全年消耗量/数据中心IT设备全年耗电量
目前,可采用水蒸发冷却的方法来促使制冷空调系统效率的提升,尤其在环境干燥的地区。但与此同时,PUE指标的降低也带来了水资源消耗的升高。对于采用冷水方案的工程,PUE与WUE存在一定的负相关性。这也决定了在实践应用中需要进行权衡,找到两者之间合理的平衡区间。与此对应的是,如今很多大型数据中心工程都选址在北方等气候寒冷、干燥的地区,水资源短缺也是需要考虑的重要问题。
以往人们对数据中心资源消耗的关注点往往集中在其电力消耗或燃料消耗上,认为一个数据中心只要电力指标优良,就可以认定为其为绿色数据中心;但近几十年来,全球承受着旷日持久的系统性干旱,并且随着人口的增长,工业规模的扩大,水资源消耗变得越来越紧迫,全球水资源缺乏的现状不会改变。
因此,面对水资源日趋匮乏的态势,业内也逐渐将目光转移到数据中心的水资源消耗上来;根据Uptime Institute的调查数据,数据中心平均规模大约为1MW,每年消耗的水量为26 600~30 400m³。
数据中心使用水的主要目的是散热,即利用水作为载冷工质持续带走IT设备热量。最常见的为冷冻水系统和冷却水系统,在这些系统中,冷水流经计算机机房的制冷单元;风扇吹过冷冻水散热盘管,向IT设备提供冷空气;然后水流回冷却装置中被重新冷却。冷却水系统依靠冷却塔利用水的蒸发来散发热量,利用水与空气流动接触后进行冷热交换带走热量达到蒸发散热降低水温的目的。
另外,冷凝水被重复蒸发并排放到大气中,会携带矿物质、灰尘及其他污染物。这些水必须被定期处理。上述规模的数据中心每年通过排放或补水大约会消耗5000m³的水。
总体来讲,使用传统水冷方式的1MW数据中心,每年用水量大约为30 000m³,这些数据并没有将数据中心加湿系统和空调末端泄水的消耗计算在内;另外,随着时间的推移,在水冷设备上,尤其是换热器翅片或换热管上会累积水垢或杂质,在去除这些影响空调运行安全和运行效率的污垢时,常用的方法是用水冲洗并排空,这一过程也消耗了大量的水资源。
1)冷却水蒸发采用冷却塔制取低温冷却水时,数据中心的热量主要靠冷却水的蒸发散发到大气环境中(采用干式冷却器的系统主要依靠空气与冷却水的对流换热,但其效率低,占地面积较大,且对气候条件的要求较为苛刻),水蒸发损失为数据中心水资源消耗的主要部分。
2)冷却水排水通常,数据中心冷却水系统的运行水温为32℃/37℃,该温度较容易滋生细菌,适宜藻类和污垢的生长及在管壁上的附着,并且需要通过冷却水排污来配合控制加药浓度,这一过程也会产生水的消耗。
3)IT房间加湿用水冬季,尤其是我国北方地区,室外环境相对湿度较低,机房内湿度受此影响需通过加湿系统维持机房内的湿度要求,需要消耗加湿用水。
4)软化水设备用水冷冻水及加湿水等闭式水系统在运行过程中由于泄漏、排水会造成一定的损失,为保证运行安全及系统压力,需要及时补充软化水,通过软化水设备对市政补水处理后补充到系统中。
5)设备维护用水系统运行过程中,冲洗、管道压力测试等需要的用水。
6)柴发系统运行及维护用水此部分为柴发机组排烟净化及机组冷却用水,这部分水资源消耗所占比例较小。此外,季节不同,数据中心各项用水比例会发生明显变化。
WUE指标目前还没有被广泛用于工业中,并且很少被引用,但水已经成为数据中心十分显著的因素,未来水资源利用效率一定会进入PUE度量工作中。
本文地址:http://www.hyyidc.com/article/25199.html