云计算数据中心【中国龙网云数据中心】是一种基于云计算架构的,计算、存储及网络资源松耦合,完全虚拟化各种IT设备、模块化程度较高、自动化程度较高、具备较高绿色节能程度的新型数据中心。 云数据中心的特点首先是高度的虚拟化,这其中包括服务器、存储、网络、应用等虚拟化,使用户可以按需调用各种资源;其次是自动化管理程度,包括对物理服务器、虚拟服务器的管理,对相关业务的自动化流程管理、对客户服务的收费等自动化管理;最后是绿色节能,云计算数据中心在各方面符合绿色节能标准,一般PUE值不超过1.5。 云数据中心与传统数据中心在区别:一是云数据中心的基础设备更加规模化、标准化,由此带来了管理的复杂性。 其次,云数据中心为了节省成本、实现日益增多的业务,必须采用各种虚拟化技术。 第三大管理差异,体现在自动化方面。 在云数据中心,当业务需要迁移、设备需要统一配置、故障需要及时检查排除、流程需要跟踪时,如何高效管理这样海量的设备和应用?当然需要通过自动化的手段来实现。 云数据中心的出现无疑是一新的进展。 除了高度的虚拟化等特征,还包括新技术和新产品,如低功耗CPU,固态硬盘等。 可以说云数据中心是传统数据中心的拯救者。
(1)优化IT功率由于IT系统最终需要供电,数据中心管理人员需要尝试降低所需IT设备的功率(称为负载有功功率)。 60%的有效负载功率由服务器消耗,因此采取以下行动降低所需的能耗至关重要:•清理工作负载,并消除一切不必要的负载。 •合并虚拟机。 •虚拟化更多的工作负载。 •继续关闭那些供电但不起作用的服务器。 •用较新的服务器替换旧服务器。 (2)优化数据中心空间在服务器虚拟化出现之前所构建的数据中心可能被过度构建,以满足当时的设备需求,因此如今可以进一步减少IT设备所需的空间和更少的IT功率。 在构建新的数据中心时,将数据中心分解为单个模块的模块化设计是值得考虑的,这些模块可以作为更灵活有机的数据中心设计的一部分,并且不断更新升级。 (3)优化数据中心冷却为了实现最低的能耗,数据中心管理人员应确保采用基本的数据中心冷却最佳实践:•安装节能器-节能器在寒冷地区可显著降低PUE。 例如,在北美的大部分地区,40%至90%的冷却可以通过能器节使用从外部进来的空气。 •包含设备和热量-隔离结构可容纳数据中心设备产生的最多热量,将热量从数据中心散发出去,或加热建筑物的其他部分空间。 •优化空调系统-优化空调系统有两种主要方式,一是使用替代的冷却源(例如空气优化器)定期关闭空调系统,二是或者持续改变电源频率,这有助于减少总的能量消耗。 (4)提高数据中心电源和冷却的效率过时的电力输送系统,包括不间断电源(UPS),配电单元(PDU)和变压器,可能对PUE值产生负面影响。 因此,可以评估当前状况,未来需求和现代替代方案。 虽然这需要一定的时间和投资,但通常在PUE值改进方面和节省成本方面会带来良好的回报。 (5)利用DCIM工具可以通过使用数据中心基础设施管理(DCIM)软件实现对能源效率的进一步改进。 DCIM软件在物理IT设备的操作需求和物理设施(建筑物和环境控制)之间提供必要的联系。
1. 全球首例采用市电直供,HVDC offline(高压直流离线)供电架构,Capex节省80%,供电效率由90%左右提升至99.5%,做到了极致。 2. 网络自研分布式锂电系统(BBS)与整机柜服务器完美结合,国内首发上线,极大简化前端配电,模块化弹性部署,供电效率高达99.5%,节省机房面积25%以上。 3. 充用利用机房楼顶空间,清洁的太阳能光伏直接并网发电技术,即发即用,在节能的同时还极大减少污染物排放。 4. 数据中心冷冻站通过板式换热系统,实现极致水侧免费冷却,华北地区全年超过94%的时间可利用室外自然冷源免费冷却。 5. 采用AHU(Air Handle Unit)风墙冷却技术,通过与高温耐腐蚀服务器配合,采用全新气流组织方案,解决了空气污染及腐蚀难题,全年100%实现风侧免费冷却。 6. 自研“蜂巢”预制模块技术,采用无架空地板设计,全面支持整机柜部署,在保证高质量交付的同时,成本持续下降,建设工期缩短一半。 7. 网络自研OCU(Overhead Cooling Unit)新型空调末端,与预制模块技术完美结合,利用空气对流原理,空调末端无风扇、零功耗。 8. 网络独创的数据中心污水回收再利用技术,冷却水系统节水率为44.8%,数据中心园区年均节水量可达到48万吨。 9. 网络自主研发的“北极”(天蝎)整机柜服务器,采用共享电源、共享风扇架构,部件全部标准化、模块化、一体化,支持40摄氏度环境温度长期运行。 总拥有成本(TCO)降低15%,交付效率提升20倍,日可交付能力超过1万台。 10. 服务器集群全面混部并采用智能流量调度系统,大幅提升服务器利用率,降低冗余服务器数量;通过智能数据中心节电技术,在同样供电能力下,可多装服务器25%以上。 11. 智能决策运维平台,由监控系统、统一管理平台、大数据分析平台、策略决策平台四大模块组成。 其故障定位准确率达92%,停电恢复时间由10分钟缩短到30秒
冷通道方案因为它的便捷性的优势则被更多地使用在改建型的数据中心中。 以下几点因素是冷通道优先使用时需要考虑的:室内净高这个制约体现在室内净高不够,机柜顶部和天花板之间的距离不足508 毫米(20 英寸)无法安装吊顶来用作热通道的回风通道。 冷通道则不存在此限制。 现有数据中心已采用高架地板精确送风当数据中心采用高架地板送风和自然回风气流分配方式时,而且要求更快捷的部署气流遏制系统,冷通道因为他部署的便捷性成为首选。 采用列间空调的微模块当数据中心采用模块化设计,使用列间空调紧靠热源的制冷方式时,冷通道则是更好的解决方案。 如果对IT基础设施中的机柜,配电,监控等设计感兴趣,请关注微信公众号IT机柜设计
一是机房规划与设计。 在机房规划的过程中,要充分考虑节能的可能和空间。 影响数据中心能耗的因素除电源、UPS和空调的配置之外,还有更多因素需要考虑,因此在规划建设数据中心机房时,需要全面考量。 二是IT设备与技术。 数据中心真正的“用户”是IT设备,不应该忽视IT设备的工作温度和湿度。 如果选用了对工作温度和湿度都很敏感的IT设备,就不得不再花费大量的人力、物力去建立和维护耗能很大的空调保障系统。 除了工作温度和湿度,IT设备自身的能效比也需要关注。 IT设备能效比=IT设备每秒的数据处理流量或每秒的数据吞吐量/IT设备的功耗。 IT设备的能效比越高,意味着IT设备每消耗1瓦的电能,所能处理、存储和交换的数据量越大。 较高的IT设备能效比带来的一个好处是,可以大幅度地降低与数据中心机房配套的UPS、空调系统的容量及功耗,从而达到节能、节省投资和节省机房安装面积的目的。 西信最新的PUE值是1.6以内,远领先于国内平均水平。
我们的研究表明,通过更加严格的管理,公司可以将数据中心的能效提高一倍,从而降低成本并减少温室气体的排放。 具体而言,公司需要更积极地管理技术资产,提高现有服务器的利用率水平;公司还需要更准确地预测业务需求对应用程序、服务器和数据中心设施容量的推动效应,以便控制不必要的资本和运营支出。 数据中心的效率是一个战略问题。 企业建造和运营数据中心花费的资金在公司IT预算中占的比例不断上升,导致用于急需技术项目的预算越来越少。 数据中心建造计划是董事会一级的决策。 同时,监管部门和外部利益相关方也越来越关注公司管理自身碳足迹的方式。 采用最佳实践不仅有助于公司减少污染,还能够提高它们作为良好企业公民的形象。 IT成本高昂如今,公司进行的分析越来越复杂,客户要求实时访问账户,广大员工也在寻找新的技术密集型协作方法。 因此,即使在经济放缓时,人们对于计算、存储和网络容量的需求也在继续增长。 为了应对这一趋势,IT部门正不断增加计算资源。 在美国,数据中心的服务器数量正在以每年约10%的速度增加。 与此同时,在中国和印度等新兴市场,机构正在变得越来越复杂,更多的运营工作实现了自动化,同时有越来越多的外包数据业务在这里进行,因此数据中心的数量呈现出更快的增长态势。 这种对计算资源无法抑制的需求,导致全球数据中心容量稳步上升。 目前,这种增长并没有显露出即将结束的迹象,通常在经济衰退时期它只会进入温和增长状态。 这一增长已经导致了IT成本激增。 如果将设施、存储设备、服务器和人员成本都计算在内,数据中心支出一般会占到企业IT总预算的25%。 随着服务器数量不断增长,电价也正以高于收入和其他IT成本的速度攀升,上述比例只会日益提高。 每年,运行这些设施的成本都在以高达20%的速度上升,而IT总支出的增长速度仅为6%,二者相差极为悬殊。 数据中心支出的不断增加,改变了许多企业的经济结构,尤其是金融、信息服务、媒体和电信公司等信息密集型企业。 在过去5年中,成立一个大型企业数据中心所需的投资已经从1.5亿美元升至5亿美元。 在IT密集型企业中,最大设施的造价正逼近10亿美元。 这一支出挤占了新产品开发的资本,降低了某些数据密集型产品的经济效益,并降低了利润。 此外,不断上升的能耗产生了更多、范围更广的碳足迹,导致了环境恶化。 对于大多数服务行业,数据中心是企业最主要的温室气体排放来源。 在2000到2006年间,用于存储和处理数据的电力翻倍,每个数据设施的平均耗电量相当于2.5万个家庭的总和。 世界上共有4400万台服务器,消耗了总电力的0.5%。 如今,数据中心的碳排放已经接近阿根廷和荷兰等国家的碳排放水平。 仅仅在美国,到2010年数据中心的预计用电增长量就相当于要新建10座电厂的发电量。 目前的预测显示,如果不对需求加以遏制,2020年全球数据中心的碳排放将是现在的4倍。 监管部门已经注意到这些发展趋势,正在督促公司拿出解决方案。 美国环保署(EPA)建议,作为建立运营效率标准的第一步,大型数据中心应当使用能量计。 同时,欧盟也发布了一套自愿执行的行为准则,其中介绍了以较高的能效运行数据中心的最佳实践。 随着数据中心排放量的持续上升,政府可能会为了减排而施加更大的压力。 第2页:全面应对挑战全面应对挑战在信息密集型机构中,许多部门和级别的人员都可以做出影响数据中心运营效率的决策。 金融交易员可以选择运行复杂的蒙特卡洛(MonteCarlo)分析,而药物研究人员可以决定要将多少临床实验影像数据存储起来。 负责应用程序开发的管理人员可以决定用多少编程工作来满足这些需要。 服务器基础设施的管理人员可以做出设备采购决策。 设施主管则可以决定数据中心的位置、电力供应,以及在预测的需求出现前安装设备的时间表。 上述决策通常是在孤立状态下做出的。 销售经理可能会选择将交易由隔夜结算改为即时结算,金融分析师则可能希望为历史数据存储几份副本,他们完全没有考虑到这样做会对数据中心的成本造成什么影响。 应用程序开发人员很少想到要对自身的工作进行优化,以将服务器用量降到最低,也很少考虑开发能够跨服务器共享的设计应用程序。 购买服务器的管理人员可能会选择价格最低或他们最熟悉的产品。 但是这些服务器也许会浪费数据中心的电力或空间。 很多时候,管理人员会超额购买设备,以保证在最极端的使用情况下拥有足够的容量,而这会造成容量过剩。 管理人员往往会建造有多余空间和高制冷容量的设施,以满足极端情况下的需求或应对紧急扩建。 这些决策在整个机构中累加起来,将对成本和环境造成重大影响。 在许多情况下,公司可以在不降低自身数据管理能力的前提下,停用现有的部分服务器,并搁置购买新服务器的计划。 这可以借助一些众所周知的技术来实现。 比如虚拟化,这种技术实际上是通过寻找服务器的空闲部分来运行应用程序,以达到容量共享的目的。 但是公司不一定会这样做,因为没有哪位高管能够承担“端对端”的责任。 在机构内部,管理人员会以最符合自身利益的方式行事,这就造成大多数数据中心效率低下,每台服务器上常常只运行了一个软件应用程序。 我们分析了一家媒体公司的近500台服务器,其中利用率低于3%的占三分之一,而低于10%的则占三分之二。 虽然有诸多用于跟踪使用情况的现成管理工具,但这家公司没有使用其中任何一种。 从全球来看,我们估计服务器的日常利用率一般最高只有5%到10%而已,这造成了能源和资金的浪费。 对此,数据中心管理人员一般会回答,配备这些服务器是为了在极端情况下提供容量,例如应付圣诞节前一天的购物潮。 但一般来说,这一论断并不成立,因为数据显示:如果平均利用率极低,那么高峰时段的利用率也会很低。 此外,数据设施的数量不断攀升,但所存放的服务器和相关设备有时仅占数据设施容量的一半,这说明有上亿美元的资本支出被浪费了。 即使公司报告认为数据中心已经满载,但沿着数据中心的过道行走,经常会发现服务器机架上有很多空位,原先放在这些空位中的设备都已经淘汰。 之所以出现这种不一致的现象,部分原因在于预测数据中心需求的难度很高。 运营的时间框架是一个问题。 数据中心的设计和建造一般需要2年或更长时间,而预计的使用寿命至少为12年,因此容量是在业务部门产生实际需求之前就已经设定的。 与此同时,对于业务决策如何互相影响,如何转化为对新应用程序的需求,以及需要多少服务器容量才能满足需求,还存在着认识不够全面的现象。 例如,如果客户需求增长50%,许多公司很难预测出服务器和数据中心的容量是需要增加25%,还是增加100%。 在极端情况下,我们发现一些设施在投入运营后常年处于半空状态;而另一些公司在建成一个数据中心之后,很快就发觉需要再建一个新的。 如今数据中心已经成为一项昂贵的资产,由此可以推断,财务绩效责任落实得十分糟糕。 设施的财务和管理责任往往会落在不动产管理人员身上,而这些人基本不具备相关的专业技术知识,对于IT与核心业务问题的联系也缺乏深入的认识。 同时,管理服务器运营的人员很少去了解关键运营支出的数据,例如耗电量或IT设备所占不动产的实际成本。 相反,当IT管理人员决定购置更多的应用程序或新的服务器时,有时只会使用硬件初始成本和软件许可证费用等基本指标。 计算实际成本时,需要考虑设施运营和租赁、电力使用、支持以及折旧等因素。 这些费用可能是服务器初始购置成本的4到5倍。 加上前面说到的孤立决策和责任问题,数据中心通常会添加额外的服务器作为保险措施,而很少讨论成本权衡或业务需求。 在缺乏实际成本分析的情况下,过度建造、过度设计和效率低下就成了普遍现象。 第3页:改革运营方式改革运营方式在研究之初,我们以为通过建造新的节能型数据中心,可为降低数据中心的成本和碳排放指出一条光明大道。 新的设施可以发挥当前各种技术的优势,利用自然冷却方法和碳排放较低的电源。 但我们还了解到,在降低成本和碳排放方面成效最显著的方法是改善公司现有数据中心效率低下的状况。 通过改善资产管理,增强管理层的责任意识,并且为降低能源成本和碳排放设立清晰的目标,大多数公司都能够在2012年之前将IT能效提高一倍,并遏制其数据中心温室气体排放的增长。 实际上,您无需另行建造就能获得最环保的数据中心。 积极管理资产一家大型公司采用的做法表明,规范现有服务器和设施的使用就可能产生巨大的收益。 这家公司原本的计划是,增加服务器的数量,并建造一个新的数据中心来容纳这些服务器和其他IT设备,以便满足自身在2010年的信息需求。 该公司的董事会已经批准了这项计划,但这意味着企业在这一年会有大量的资本支出。 于是,这家公司彻底修改了计划。 它将关闭5000多台很少使用的服务器。 通过对占公司应用程序总量15%的3700个应用程序进行虚拟化,可以将现役服务器的数量由2.5万台减少至2万台。 公司还更换了一些较为陈旧的服务器,代之以能够将用电效率提高20%的产品。 这些调整使公司得以搁置原先的数据中心扩建计划,并因此节省了3.05亿美元的资本投资成本。 由于服务器数量和耗电量的下降,运营支出预计将减少4500万美元,降低到7500万美元。 考虑到停用和虚拟化因素,服务器运行时的平均容量利用率将由目前的5.6%升至9.1%。 该公司仍然能够满足自身日益增长的数据需求,但是电力需求的减少,意味着未来4年内的二氧化碳排放将由59.1万吨削减至34.1万吨。 公司还可以通过对不断上升的数据需求加强管理来实现节约。 对于应当保留多少数据,是否要缩减某些数据密集型分析的规模,业务部门应当审查相关的政策。 一些交易的计算可以推迟,以降低服务器在高峰时段的利用率,也并不是所有企业信息都需要基于广泛备份的灾难恢复功能。 更好的预测和规划是提高数据中心效率的基础。 公司应当跟踪自己对数据需求的预测与实际需求之间的差异,然后向能够最大限度减少预测偏差的业务部门提供奖励。 数据中心的管理人员应尽可能全面了解未来的趋势,例如机构增长和业务周期等,然后将这一趋势与自身采用的模型结合起来。 由数据中心、应用架构师和设施操作人员提供的建议可以用于改善这些模型。 一家全球通信公司制定了一套规划流程,将每个业务部门数据增长量的各种发展情况包括在内。 虽然公司最终得出的结论是,它需要扩大容量,但是未来需求中有很大一部分可通过现有资产来满足,这比原计划节约了35%的资本支出。 许多机构并没有将数据中心看作一种稀缺的昂贵资源,而是将其当成了等待注水的水桶。 为了避免这种趋势,公司在估算新服务器或附加应用程序和数据的成本时,可以采用实际拥有成本(TCO)核算法。 业务部门、软件开发人员或IT管理人员在进行支出决策时,很少会将应用程序和服务器的生命周期运行成本考虑在内。 提早计算这些成本,有助于限制过量的需求。 管理这些变化可能十分困难。 大型机构中的许多人并没有意识到数据的成本。 企业的每一个部门都会产生对于数据中心服务的需求。 满足这些需求的责任分散在IT部门(包括运营和应用开发)、设施规划人员、共享服务团队和企业不动产职能部门身上。 成本报告工作并没有统一的标准。 第4页:提高总体效率提高总体效率作为数据中心改进计划的一部分,我们建议采用一项新的指标:企业数据中心平均效率(CADE)。 与美国的企业燃料平均经济性(CAFE)里程标准类似,CADE考虑了数据中心内的设施能效、设施利用率和服务器利用率水平。 将这些因素综合起来,就得到了数据中心的总体效率,即CADE(图)。 减少了成本和碳排放的公司将提高自身数据中心的CADE分数。 这就像在汽车行业中,出色的里程数能够提高CAFE评级一样。 为了给改进工作设立目标,我们将CADE分为五级。 属于CADE第1级的数据中心运营效率最低;大多数机构最初可能都会被归入较低的级别。 关闭利用率低下的服务器、采用虚拟化技术以及提高设施空间的使用效率,都将提高CADE分数。 借助CADE,公司还可以对整个数据中心的设施进行基准比较分析,或者与竞争对手进行比较,也可以为管理人员设立绩效目标并加以跟踪。 在数据中心的需求管理方面,我们建议采用一种由首席信息官全权负责的新治理模型。 在这种体制下,首席信息官能够更为透彻地了解各业务部门的数据需求;对于需要更多服务器或软件应用的新数据项目,他们可以强制要求将能耗和设施成本考虑到相应的投资回报计算中。 我们还建议首席信息官采用一种新的指标来衡量改进情况,请参见副文“提高数据中心的效率”。 通过强化责任,首席信息官将拥有更高的积极性来寻求改进,例如采用虚拟化技术和提高现有设施的利用率。 由于这种模型将关键业务决策的更多责任集中在首席信息官身上,因此不但需要首席执行官的全力支持,而且要求机构转变以往对于业务部门的数据中心扩容请求有求必应的思维模式。 此外,首席信息官还应当设定将数据中心的能效提高
好吧,让我们准备好分析一份庞大、阴暗且荒谬的虚拟化项目实施状况统计。 根据Gartner公司分析师David Cappuccio的说法,只有约25%的虚拟服务器处理性能能够被部署虚拟化项目的企业所充分利用。 “在我们的受访群体中,几乎有超过半数的客户面临此类状况,”他说。 事实上,利用率数字应该更高,也就是说应达到55%至60%的水平,这样才能使虚拟化应用的运行真正带来经济效益。 Cappuccio如是说。 这种实际效率与预期效率间的差距,主要来自于企业的虚拟化管理思路。 他们往往更乐于添置新的虚拟服务器,而非在现有的虚拟服务器上配置更多工作负荷。 而这种做法,Cappuccio说,会造成经济层面上的巨大浪费。 原因何在?因为一套物理服务器即使只有25%的处理能力在发挥作用,其能源消耗率仍然会达到其额定运转功率的80%,Cappuccio说道。 如果我们将其处理能力的利用率提高一倍,达到前面所说的55%至60%,其所带来的能源消耗提升相对而言却微不足道——大约达到额定运转功率的85%。 这意味着企业在处理能力方面收获颇丰,付出的能源消耗成本则只有一小部分。 而且提升执行效率的做法,正是当初我们热衷于引入虚拟化技术的重要原因之一。 “别执著于你的服务器到底有多少资源被用于虚拟化,”他说道。 “相反,我们要把注意力集中到资源的利用率方面。 许多企业乐于宣称其数据中心内部的服务器资源虚拟化比例已达到70%或80%,但当谈及其服务器的实际平均运转水平时,得到的结论仍然可谓惨不忍睹——只有约25%至30%。 这意味着,系统整体的虚拟化纵然做得再好,事实上多数企业仍然在浪费资源。 要让你的每千瓦能源都物有所值,将自己设备的计算利用率提高到55%至60%才是正道。 ”上述情况作为常见而典型的反面教材,广泛存在于各大沉醉于自身虚拟化方案的企业当中。 “你也可以充分调动更多的服务器性能,”Cappuccio说道。 与此同时,通过在少的物理服务器上运行更多的应用程序实体,我们可以节约自己数据中心的占地面积,这也是缩减开支的好办法。 说到这里,我们不禁要问:为什么不将硬件利用率调得更高,而只是局限于55%至60%呢?原因在于,Cappuccio说道,我们需要一些性能空间以应对每天的资源应用峰值,这种缓冲压力的硬性需求即使在我们将工作负载上限强制定义为60%利用率时仍然存在,他说。 利用率低下的情况为什么至今仍未在世界范围内得到有效重视呢?IT行业的历史顽疾正是原因之一。 在过去,由于分布式计算是由规模相对较小的计算机实现的,而大多数数据中心管理员们往往不愿意使用这些性能较差的设备而更偏好将真正的业务计算需求通过大型机实现。 所以,当有客户要求将某个应用程序加入分布式系统当中时,管理员们的建议往往是添加额外的对应设备用于专门处理。 这就是一台计算机对应一个应用程序的不良风气成为主流模式的原因所在,Cappuccio如是说。 不过硬件利用率配置过高也会引发新的问题,他补充道。 在未引入虚拟化技术的企业中,管理员们往往会发现其物理服务器的实际利用率只有7%到12%,Cappuccio根据调查结果提到。 “这正是巩固资源管理体系的起点,因为显然我们必须找出能让这些计算机设备的运转更加高效的方法,”他说。 “如今的问题是我们发现处于虚拟环境下的计算机,其运行效率依然只有可怜的25%。 这比起过去的确有些进步,但距离我们的目标还差得很远。 ”通过切实发掘现有服务器的全部潜在性能,企业能够从长远角度节约大量投入,Cappuccio做出如上判断。 “对于大多数情况来说,提高利用率可以避免无谓的数据中心扩张方案,并在很长一段时间内从各个角度帮助用户节省资金。 ”这类分析师们习以为常的结论正是诸多企业一直没有真正加以重视的盲点。 “在过去,企业总是让自己租下的大型机以90%的性能负荷不停运转,因为这类设备的使用成本实在不低,”他说。 “企业希望能尽量充分发挥它的能力。 ”当与Cappuccio谈起这些趋势及具体数字时,我着实吃了一惊。 我敢打赌,读者中的大部分在阅读这些统计数据时也会有与我一样的反应,并急切想了解自己的虚拟环境运行状况到底处于什么样的水平。 事实上,我建议大家尽快将想法付诸行动。 有没有打算立即参与进来,搞清楚自己的数据中心在服务器利用率领域处在什么样的位置?如果大家的虚拟服务器资源并未得到充分利用,那就意味着在挥金如土而缺乏回报的同时,你的数据中心还带给维护人员毫无意义的大量工作。 当然,电力浪费及占地空间也是需要思量的因素。 这种情况下,你会做何决断呢?如果还没做过相关工作,马上对自己的虚拟服务器进行整编并列出清单。 收集必要的分析报告,核查各服务器上都运行着哪些内容,并对内存及处理能力的利用率做出详尽的评测。 这样一来,数据中心的运转状况就清晰地呈现出来了。 如果实际利用率很低,大家可以立即着手进行调查,例如有针对性地做出变更、将一部分虚拟化应用程序转移到另一台服务器上以迅速提高运行效率等等。 根据Cappuccio的说法,效率低下问题的症结所在,正是由于IT管理者们将多年来固有的使用习惯带入数据中心、硬件及应用程序的现代化管理之中。 而这种落后的模式往往很难在短时间内彻底消除。 但随着企业IT的演变及发展,我们能够探索新的途径并获取新的见解,进而在指导实践的过程中产生出乎预料之外的重大革新。
选机经验:刀片服务器选用注意事项刀片技术与服务器虚拟技术联合起来,可以提供一种强大的基础,从而建立下一代的数据中心,这也正是服务器整合工作一部分。 刀片技术与服务器虚拟技术联合起来,可以提供一种强大的基础,从而建立下一代的数据中心,这也正是服务器整合工作一部分。 本文建议可以帮助你决定刀片技术是否能够满足你的整合计划,以及何时何地与自己的计划进行匹配。 空间资源的问题与传统的机架式的服务器相比,刀片技术可以节省很大的空间资源。 然而,因为刀片的这种高密度性,你必须考虑到动力驱动以及制冷的问题。 硕大的底盘和机架在动力驱动和数据中心制冷方面可能会超过你所能承受的负担。 在有些情况下,如果继续使用传统机架式服务器的数据中心进行整合和巩固,可能会使得空间资源相当的局限,这就意味着需要建立新的数据中心。 在这些情况下,刀片技术可以在成本方面提供巨大的节省。 当一个新型的数据中心必须建立的时候,毫无疑问,设计一种使用刀片技术的设施将能够创建一种新的设备模型,从而产生真正的下一代的数据中心。 服务器定位:偏远位置还是中央位置如果你计划对服务器系统进行整合,但是仍然需要一定的服务器安放在偏远的位置,那么刀片技术将可以大大的简化你的这些管理难题。 刀片技术拥有很强的遥控管理功能,意味着IT技术员工可以对这些处于偏远位置的刀片系统进行完全的管理,包括每一项任务,当然物理硬件交换除外。 这种刀片技术的底盘管理模块可以提供远程控制的能力,可以进行硬件诊断、重新启动,甚至关闭某些功能。 刀片技术还可以简化站点的某些必要的物理任务,而这主要是通过方便读取的指示器完成的,例如该指示器可以显示哪一个刀片出现了问题,从而即使是非技术型的员工也能够用一个新的刀片换掉这个出现问题的刀片。 刀片管理功能可以与其他的一些管理工具进行整合,例如IBM Director, HP Insight Manager, Dell OpenManage 以及微软的管理工具等。 并且,在软件配置及供应方面,越来越多的软件工具可以最终胜任这种进程,包括一些大型厂家的工具,也包括一些小型厂家,例如 Altiris, Cyclades (被Avocent集团收购) 以及Ardence公司等。 遵循动态的配置原则如果你正在将服务器整合于一个中央位置,并且在某些位置的业余时间还有一些服务器处于空闲状态,那么你可以根据时区的变化,将这些空闲的服务器配置到其他的应用软件和地区,这样就可以提供一些额外的整合和节省。 通过它们的模块方法,刀片技术可以处理和推动这种进程,只要将其与所提供和需要配置的软件进行结合。 如果所使用的刀片是匿名的,并且可以从存储局域网络(SAN)获取资源,那么这个工作进程将变得更加的简易。 虚拟技术软件可以增加另外的处理层,而这需要多重的虚拟服务器供应,并且需要在任何时候都拥有多种可行的刀片。 服务器的数量因为不同的刀片共享底盘中的公共成分资源,所以要使得自己在底盘和刀片方面的投资成本大致平衡。 一般来说,这种平衡点在于每个底盘的投资与5 - 6个刀片的投资相当。 所以如果你在某个地点的服务器数量少于5台,那么不要期望有什么大的发展,在此刀片可能并不是最好的选择。 随着越来越多的刀片增加到底盘之中,每个刀片的费用将随之降低,因为它们在共享某些公共的资源(例如能源动力、制冷、转换模块等)。 然而,需要根据你的数据中心的制冷能力,对地盘以及机架进行充分的配置。 当然这还需要受限于在评测、计划以及执行进程方面的管理技术员工的数量和能力。 应用软件的类型尽管CPU在刀片方面的性能不断的增长,刀片还是无法跟上高性能计算任务的增长步伐。 不断增加的应用软件数量需要在一个单独的系统映像中拥有很强的CPU资源,甚至很多的处理器;这种类型的应用软件可能比较适合于机架服务器(尽管该领域的一些刀片厂家正在对此进行辩论)。 相反,不断扩充的应用软件需要很多的服务器运行相同的应用软件(例如网络服务器,一些应用软件服务器,以及一些数据库服务器等),这种应用软件就比较适合于整合和管理的刀片技术。 还有一个受到刀片技术巨大吸引的领域,那就是“套装的数据中心”方法;在这种方法下,一台刀片服务器系统配置所有的偏远站点所需要的成分。 例如,你可以配置一台底盘系统,使其拥有网络服务器、应用软件服务器、数据库服务器,以及转换模块等,并且还包括防火墙工具,下载平衡工具,以及所有存储或者存储连通性所适合的东西(NAS或者SAN)。 刀片厂家的选择尽管你可以设想所有的刀片都是经过标准化的,并且一个厂家的刀片可以与另一个厂家的刀片在底盘系统中进行完全的融和,但是很遗憾事实并非如此。 在该领域中唯一的刀片标准性就是ATCA标准,况且并不是所有人都遵守该标准。 在标准刀片服务器领域,底盘以及刀片的设计都是所有权性质的,所以如果你购买IBM BladeCenter底盘,那么你就安装IBM刀片;对于HP BladeSystem,以及 Dell PowerEdge也同样如此。 这也就直接导致很多用户在选择刀片厂家的时候,要根据它们传统的主流系统厂家进行选择。 但是还是应该对所有的可供选择的刀片技术厂家进行调研,因为每一种刀片系统都拥有其独特的功能特征。 并且你还可能发现很多的小型刀片技术厂家,它们并不是传统的系统厂家,但是它们的确拥有自己的优势所在; 这些厂家例如Egenera 以及Verari等。 结论刀片技术在模块化,空间使用以及管理便捷性方面的性能比较突出,这使其成为服务器整合巩固方面的一个很好的选择,并且可以为将来建立一个强大的基础系统。 如果在这种复合的系统中增加虚拟技术软件,那么将在管理便捷性方面提供更大的优势。
本文地址:http://www.hyyidc.com/article/25009.html