数据中心是企业运营的关键基础设施,容纳着重要的业务应用程序和数据存储。随着数据量的不断增长和计算需求的不断提高,设计高效且可靠的数据中心变得至关重要。数据中心设计中常见的错误可能会导致昂贵的停机时间、降低的效率和更高的运营成本。
未能准确预测未来的容量需求会导致数据中心设计不当。需要考虑的因素包括:业务增长、新应用程序的部署以及服务器和存储系统的升级。
数据中心是能源密集型设施。低效的设计会增加能耗并导致运营成本สูง。请考虑采用节能措施,例如使用高效设备、优化供电系统以及采用绿色冷却解决方案。
不当的冷却系统可能会导致服务器过热和系统故障。确保设计能够满足设备散热要求,并考虑冗余冷却解决方案以提高可靠性。
数据中心包含敏感数据,需要适当的物理安全措施来保护其免遭未经授权的访问。这包括采用物理屏障、访问控制系统和视频监控。
数据中心应配备一个全面的灾难恢复计划,以应对停电、火灾或自然灾害等事件。计划应概述恢复程序、通信协议以及与第三方供应商的合作。
数据中心设计应具有可扩展性,以适应未来的业务需求。考虑模块化组件、可扩展的电源系统和灵活的冷却解决方案。
数据中心必须保证高可用性,以确保业务连续性。采用冗余组件、容错系统和备用电源解决方案来提高冗余度。
数据中心需要持续的运营和维护,以确保其有效运行。建立一个预防性维护计划,并制定清晰的操作程序,以确保设备正常运行。
将数据中心设计视为一个完整的系统,考虑所有组件之间的相互作用。包括物理基础设施、IT 设备、能源和冷却系统以及安全措施。
与经验丰富的数据中心设计专家合作,可以获得宝贵的见解和最佳实践建议。他们将帮助您避免常见陷阱并实现最佳解决方案。
在进行设计决策之前,利用数据建模和仿真工具来预测性能、效率和可扩展性特征。这将有助于优化设计并识别潜在问题。
遵循行业标准和规范,例如 ANSI/TIA-942、ISO/IEC 27001 和 LEED,以确保数据中心设计符合相关法规和最佳实践。
数据中心设计是一个持续的过程。实施监控和评估机制,以密切关注性能,并根据需要进行调整。
在信息化机房新建设计中,对于到底设计几个消防通道门合适呢?为了节约开支只设计一套安全通道是否可以呢?我们今天来看看相关规范要求:按照GB -2017“数据中心设计规范”有关机房出入口的规定:6.2.1 数据中心宜单独设置人员出入口和设备、材料出入口。 6.2.2 有人操作区域和无人操作区域宜分开布置。 6.2.3 数据中心内通道的宽度及门的尺寸应满足设备和材料的运输要求,建筑入口至主机房的通道净宽不应小于1.5米。 6.2.4 数据中心可设置门厅、休息室、值班室和更衣室。 更衣间使用面积可按最大班人数,以1㎡/人~3㎡/人计算。 按照GB -2017“数据中心设计规范”有关“防火与疏散”的要求:13.2.1 数据中心耐火等级不应低于二级。 13.2.2 当数据中心按照厂房进行设计时,数据中心的火灾危险性分类应为丙类,数据中心内任一点到最近安全出口的直线距离不应大于表13.2.2的规定。 当主机房设有灵敏度的吸气式烟雾探测火灾报警系统时,主机房内任一点到最近安全出口的直线距离可增加50%。 13.2.3 当数据中心按照民用建筑设计时,直通疏散走道的房间疏散门至最近安全出口的直线距离不应大于表13.2.3-1的规定。 各房间内任一点至房间直通疏散走道的疏散门的直线距离不应大于表13.2.3-2的规定。 建筑内全部采用自动灭火系统时,采用自动喷水灭火系统的区域,安全疏散距离可增加25%。 13.2.4 当数据中心与其他功能用房在同一个建筑内时,数据中心与建筑内其他功能用房之间应采用耐火极限不低于2.0h的防火隔墙和1.5h的楼板隔开,隔墙上开门应采用甲级防火门。 13.2.5 建筑面积大于120m²的主机房,疏散门不应少于两个,并应分散布置。 建筑面积不大于120m²的主机房,或位于袋形走道尽端、建筑面积不大于200m²的主机房,且机房内任一点至疏散门的直线距离不大于15米,可设置一个疏散门,疏散门的净宽度不应小于1.4米。 主机房的疏散门应向疏散方向开启,应自动关闭,并应保证在任何情况下均能从机房内开启。 走廊、楼梯间应畅通,并应有明显的疏散指示标志。 应该设计几个安全出口,还是需要根据机房面积大小来确定。
无论是新建还是改建的电子信息系统机房,设备(机柜)合理地摆放,能提高设备散热效率。 我们在设计或者实施的过程中一定要按规范要求进行,根据GB-2017“数据中心设计规范”规定的有关设备布置要求:4.3.1数据中心内的各类设备应根据工艺设计进行布置,应满足系统运行、运行管理、人员操作和安全、设备和物料运输、设备散热、安装和维护的要求。 4.3.2容错系统中相互备用的设备应布置在不同的物理隔间内,相互备用的管线宜沿不同路径敷设。 4.3.3当机柜(架)内的设备为前进风(后出风)冷却方式,且机柜自身结构未采用封闭冷风道或封闭热风通道方式时,机柜(架)的布置宜采用面对面、背对背方式 。 GB-2017“数据中心设计规范”规定:4.3.4. 主机房内通道与设备间的距离应符合下列规定:1 用于搬运设备的通道净宽不应小于1.5m;2 面对面布置的机柜或机架正面之间的距离不宜小于1.2m;3 背对背布置的机柜或机架背面之间的距离不宜小于0.8m;4 当需要在机柜侧面维修测试时,机柜与机柜、机柜与墙之间的距离不宜小于1.0m;5 成行排列的机柜,其长度超过6m时,两端应设有出口通道;当两个出口通道之间的距离超过15m 时,其间还应增加出口通道;出口通道的宽度不宜小于1m,局部可为0.8m。
数据中心设计遵循保证安全、使用便捷、成本优化几个标准, 1、保证安全体现在室外选址以及室内设计,室外选址宜选择空旷干燥的环境,室内装修要考虑防静电,温度控制等等; 2、使用便捷要根据整个企业环境来规划选址,方便每个区域都能方便使用;3、成本优化则是根据自身需求进行设计4、可根据自身情况考虑数据中心托管服务
按照GB -2017“数据中心设计规范”有关机房“环境要求”一般规定:
5.1.1 主机房和辅助区内的温度、露点温度和相对湿度应满足电子信息设备的使用要求;当电子信息设备尚未确定时,应按本规范附录A执行。
5.1.2 主机房的空气粒子浓度,在静态或动态条件下测试,每立方米空气中粒径大于或等于0.5um的悬浮粒子应少于粒。
5.1.3 数据中心装修后的室内空气质量应符合现行国家标准“室内空气质量标准”GB/T 的有关规定。
按照GB -2017“数据中心设计规范”规定的“噪声、电磁干扰、振动及静电”的一般要求:
按照GB -2017“数据中心设计规范”有关“空气调节”的一般要求:
7.1.1 数据中心的空调调节系统设计应根据数据中心的等级,按本规范附录A执行。空气调节系统设计应符合现行国家标准“民用建筑供暖通风与空气调节设计规范”GB的有关规定。
7.1.2 与其他功能用房共建于同一建筑内的数据中心,宜设置独立的空调系统。
7.1.3 主机房与其他房间宜分别设置空调系统。
根据GB -2017“数据中心设计规范”的空气调节系统的负荷计算:
7.2.1 电子信息设备和其他设备的散热量应根据设备实际用电量进行计算。
7.2.2 空调系统夏季冷负荷应包括下列内容:
7.2.3空调系统湿负荷应包括下列内容:
空调调节系统气流组织在GB -2017“数据中心设计规范”的规定:
7.3.1 主机房空调系统的气流组织形式应根据电子信息设备本身的冷却方式、设备布置方式、设备散热量、室内风速、防尘和建筑条件综合确定,并应采用计算流体动力学对主机房气流组织进行模拟和验证。当电子信息设备对气流组织形式未提出特殊要求时,主机房气流组织形式、风口及送回风温差可按下表选用。
7.3.2 对单台机柜发热量大于4kW的主机房,宜采用活动地板下送风(上回风)、行间制冷空调前送风(后回风)等方式,并宜采取冷热通道隔离措施。
7.3.3 在有人操作的机房内,送风气流不宜直对工作人员。
GB -2017“数据中心设计规范”有关空调调节系统设计
【答案】:B《数据中心设计规范》(gb-2017)中,数据中心的耐火等级不应低于二级。
机房工程也是建筑智能化系统的一个重要部分。 在信息中心机房建设之前,我们需要根据有关规范进行机房定级、信息中心位置的选址,按照GB -2017数据中心设计规范要求:一、机房分级电子信息系统机房划分为A 、B、C 三级。 设计时应根据机房的使用性质、数据丢失或网络中断在经济或社会上造成的损失或影响程度确定所属级别。 符合下列情况之一的电子信息系统机房应为A级:1、电子信息系统运行中断将造成重大的经济损失;2、电子信息系统运行中断将造成公共场所秩序严重混乱。 符合下列情况之一的电子信息系统机房应为B级。 1、电子信息系统运行中断将造成较大的经济损失;2、电子信息系统运行中断将造成公共场所秩序混乱。 不属于A级或B级的电子信息系统机房为C级。 在同城或异地建立的灾备数据中心机房,设计时宜与主用机房等级相同。 数据中心基础设施各组成部分宜按照相同等级的技术要求进行设计,也可按照不同等级的技术要求进行设计。 当各组成部分按照不同等级进行设计时,数据中心的等级按照其中最低等级部分确定。 二、机房选址根据“数据中心设计规范”GB-2017关于机房选址规定:4.1.1. 数据中心选址应符合下列规定:1、电力供给应充足可靠,通信应快速畅通,交通应便捷;2、采用水蒸气冷却方式制冷的数据中心,水源应充足;3、自然环境应清洁,环境温度应有利于节约能源;4、应远离产生粉尘、油烟、有害气体以及生产或贮存具有腐蚀性、易燃、易爆物品的场所;5、应远离水灾、地震等自然灾害隐患区域;6、应远离强振源和强噪声源;7、应避开强电磁场干扰。 8 、A级数据中心不宜建在公共停车库的正上方;9、大中型数据中心不宜建在住宅小区和商业区内。 4.1.2. 设置在建筑物内局部区域的数据中心,在确定主机房的位置时,应对安全、设备运输、管线敷设、雷电感应、结构荷载、水患及空调系统室外设备的安装位置等问题进行综合考虑和经济比较;规范附录提供了有关选择技术要求:根据“数据中心设计规范”GB-2017关于机房选址6.1.3规定:6.1.3、主机房净高应根据机柜高度、管线安装及通风要求确定,新建数据中心时,主机房净高不宜小于3.0米。 我们在选址机房位置还要考虑下面二个方面的实际环境环素:一、电力是首先要保障的问题,一般机房需要负荷都比较大,当供电侧端不能满足要求,机房选址位置就有问题;一般机房供电需要双路电源,每路最大供电负荷均要满足要求。 二、在这里面最容易忽视的还是机房精密空调外机的摆放位置,空调外机位置选择楼顶时,需要考虑楼顶面的防水及楼顶沉重问题;放到地面,要考虑空调外机占用地面空间大小及考虑整体环境美观度。 空调外机根据位置情况,可以卧式或者立式摆放。
在信息时代,数据中心的设计不仅关乎技术先进性,更是保障数据安全、稳定运行的关键。GB -2017,这一规范如同基石,为新建、改建和扩建的数据中心提供了坚固的框架。
遵循远期规划与近期实施的协同,数据中心设计需严格遵循国家相关标准,确保每一环节都兼顾经济效益和环保责任。术语中,数据中心不仅是硬件设施的集合,包括主机房、辅助区,如灾备数据中心,是关键的信息处理核心。
电磁干扰(EMI)与电磁屏蔽(EMC)是数据中心设计中的重要课题,以确保设备性能不受干扰。
PUE(Power Usage Effectiveness)衡量数据中心能效,WUE(Water Usage Effectiveness)关注水资源利用,ATSE自动转换开关确保电源切换,而CFD(Computational Fluid Dynamics)模拟复杂流体动力环境。从冗余配置的A级,到基本需求的C级,每个等级都有严格的设计标准。
选址与设备考量选址需考虑电力、通信、交通便利,以及远离电磁干扰源。设备布置需兼顾工艺、运行效率和安全,如UPS系统确保供电连续性,TCO(Total Cost of Ownership)衡量全生命周期成本。
环境与安全抗震设防严格,A级数据中心需达到乙类及以上标准,选址、建筑结构和设备选择均需符合抗震要求。防雷、防潮、防火措施完备,确保数据安全无虞。
从穿越楼层的技术竖井,到空调系统的设计与优化,每一处细节都旨在提升数据中心的效能。空气调节需按等级规范执行,同时考虑节能和环保。
在供配电方面,GB和附录A为数据中心的电力需求提供了指南,从双电源配置到接地系统,确保电力系统的稳定和安全性。
照明系统要求高效节能,照明设计兼顾视觉作业安全和疏散需求。网络与布线系统则采用智能管理,确保数据传输的安全与高效。
电磁屏蔽与保密安全对于高度保密的数据中心,电磁屏蔽室是必备设施,其结构和性能需符合严格标准,为敏感信息提供防护。
总结来说,GB -2017数据中心设计规范,以科学严谨的态度,为打造高效、安全、绿色的数据中心提供了全方位的指导,确保了信息时代的基石坚固无比。
1. 数据中心设计原则依据数据中心网络安全建设和改造需求,数据中心方案设计将遵循以下原则:1.1 网络适应云环境原则网络的设计要在业务需求的基础上,屏蔽基础网络差异,实现网络资源的池化;根据业务自动按需分配网络资源,有效增强业务系统的灵活性、安全性,降低业务系统部署实施周期和运维成本。 1.2 高安全强度原则安全系统应基于等保要求和实际业务需求,部署较为完备的安全防护策略,防止对核心业务系统的非法访问,保护数据的安全传输与存储,设计完善的面向全网的统一安全防护体系。 同时,应充分考虑访问流量大、业务丰富、面向公众及虚拟化环境下的安全防护需求,合理设计云计算环境内安全隔离、监测和审计的方案,提出云计算环境安全解决思路。 1.3 追求架构先进,可靠性强原则设计中所采用的网络技术架构,需要放眼长远,采用先进的网络技术,顺应当前云网络发展方向,使系统建设具有较长的生命周期,顺应业务的长远发展。 同时保证网络系统的可靠性,实现关键业务的双活需求。 同时,应为设备和链路提供冗余备份,有效降低故障率,缩短故障修复时间。 1.4 兼容性和开放性原则设计中所采用的网络技术,遵守先进性、兼容性、开放性,以保证网络系统的互操作性、可维护性、可扩展性。 采用标准网络协议,保证在异构网络中的系统兼容性;网络架构提供标准化接口,便于整体网络的管理对接,实现对网络资源的统一管理。 2. 云计算环境下的安全设计随着目前大量服务区虚拟化技术的应用和云计算技术的普及,在云计算环境下的安全部署日益成为关注的重点问题,也关系到未来数据中心发展趋势。 在本设计方案中,建议采用高性能网络安全设备和灵活的虚拟软件安全网关(NFV 网络功能虚拟化)产品组合来进行数据中心云安全设计。 在满足多业务的安全需求时,一方面可以通过建设高性能、高可靠、虚拟化的硬件安全资源池,同时集成FW/IPS/LB等多种业务引擎,每个业务可以灵活定义其需要的安全服务类型并通过云管理员分配相应的安全资源,实现对业务流量的安全隔离和防护;另一方面,针对业务主机侧的安全问题,可以通过虚拟软件安全网关实现对主机的安全防护,每个业务可以针对自身拥有的服务器计算资源进行相应的安全防护和加固的工作。 其部署示意图如下所示:2.1 南北向流量安全防护规划在云计算数据中心中,针对出入数据中心的流量,我们称之为“南北向流量”。 针对南北向流量的安全防护,建议采用基于虚拟化技术的高性能安全网关来实现。 虚拟化技术是实现基于多业务业务隔离的重要方式。 和传统厂商的虚拟化实现方式不同,H3C的安全虚拟化是一种基于容器的完全虚拟化技术;每个安全引擎通过唯一的OS内核对系统硬件资源进行管理,每个虚拟防火墙作为一个容器实例运行在同一个内核之上,多台虚拟防火墙相互独立,每个虚拟防火墙实例对外呈现为一个完整的防火墙系统,该虚拟防火墙业务功能完整、管理独立、具备精细化的资源限制能力,典型示意图如下所示:虚拟防火墙具备多业务的支持能力虚拟防火墙有自己独立的运行空间,各个实例之间的运行空间完全隔离,天然具备了虚拟化特性。 每个实例运行的防火墙业务系统,包括管理平面、控制平面、数据平面,具备完整的业务功能。 因此,从功能的角度看,虚拟化后的系统和非虚拟化的系统功能一致。 这也意味着每个虚拟防火墙内部可以使能多种安全业务,诸如路由协议,NAT,状态检测,IPSEC VPN,攻击防范等都可以独立开启。 虚拟防火墙安全资源精确定义能力通过统一的OS内核,可以细粒度的控制每个虚拟防火墙容器对的CPU、内存、存储的硬件资源的利用率,也可以管理每个VFW能使用的物理接口、VLAN等资源,有完善的虚拟化资源管理能力。 通过统一的调度接口,每个容器的所能使用的资源支持动态的调整,比如,可以根据业务情况,在不中断VFW业务的情况下,在线动态增加某个VFW的内存资源。 多层次分级分角色的独立管理能力基于分级的多角色虚拟化管理方法,可以对每个管理设备的用户都会被分配特定的级别和角色,从而确定了该用户能够执行的操作权限。 一方面,通过分级管理员的定义,可以将整个安全资源划分为系统级别和虚拟防火墙级别。 系统级别的管理员可以对整个防火墙的资源进行全局的配置管理,虚拟防火墙管理员只关注自身的虚拟防火墙配置管理。 另一方面,通过定义多角色管理员,诸如在每个虚拟防火墙内部定义管理员、操作员、审计员等不同角色,可以精确定义每个管理员的配置管理权限,满足虚拟防火墙内部多角色分权的管理。 2.2 东西向流量安全防护规划数据中心中虚机(VM)间的交互流量,我们称之为“东西向流量”。 针对东西两流量,采用虚拟软件安全网关产品来实现安全防护。 对于普通的云计算VPC模型的业务,既可以将NFV安全业务安装在业务服务器内,也可以部署独立的安全业务网关服务器。 可采用部署独立的安全业务网关服务器,此时安装了NFV的独立的服务器资源逻辑上被认为是单一管理节点,对外提供高性能的VFW业务。 考虑到在虚拟化之后服务器内部的多个VM之间可能存在流量交换,在这种情况下外部的安全资源池无法对其流量进行必要的安全检查,在这种情况下,基于SDN架构模式的虚拟化软件安全网关vFW产品应运而生,在安全功能方面,为用户提供了全面的安全防范体系和远程安全接入能力,支持攻击检测和防御、NAT、ALG、ACL、安全域策略,能够有效的保证网络的安全;采用ASPF(Application Specific Packet Filter)应用状态检测技术,可对连接状态过程和异常命令进行检测,提供多种智能分析和管理手段,支持多种日志,提供网络管理监控,协助网络管理员完成网络的安全管理;支持多种VPN业务,如L2TP VPN、GRE VPN、IPSec VPN等丰富业务功能。 vFW技术带来如下优势:• 部署简单,无需改变网络即可对虚拟机提供保护• 安全策略自动跟随虚拟机迁移,确保虚拟机安全性• 新增虚拟机能够自动接受已有安全策略的保护• 细粒度的安全策略确保虚拟机避免内外部安全威胁;vFW解决方案能够监控和保护虚拟环境的安全,以避免虚拟化环境与外部网络遭受内外部威胁的侵害,从而为虚拟化数据中心和云计算网络带来全面的安全防护,帮助企业构建完善的数据中心和云计算网络安全解决方案。 3. 云计算环境下数据安全防护手段建议基于以上云计算环境下的数据安全风险分析,在云计算安全的建设过程中,需要针对这些安全风险采取有针对性的措施进行防护。 3.1 用户自助服务管理平台的访问安全用户需要登录到云服务管理平台进行自身的管理操作设置,如基础的安全防护策略设置,针对关键服务器的访问权限控制设置,用户身份认证加密协议配置,虚拟机的资源配置、管理员权限配置及日志配置的自动化等等。 这些部署流程应该被迁移到自服务模型并为用户所利用。 在这种情况下,云服务管理者本身需要对租户的这种自服务操作进行用户身份认证确认,用户策略的保密、不同租户之间的配置安全隔离以及用户关键安全事件的日志记录以便后续可以进行问题跟踪溯源。 3.2 服务器虚拟化的安全在服务器虚拟化的过程中,单台的物理服务器本身可能被虚化成多个虚拟机并提供给多个不同的租户,这些虚拟机可以认为是共享的基础设施,部分组件如CPU、缓存等对于该系统的使用者而言并不是完全隔离的。 此时任何一个租户的虚拟机漏洞被黑客利用将导致整个物理服务器的全部虚拟机不能正常工作,同时,针对全部虚拟机的管理平台,一旦管理软件的安全漏洞被利用将可能导致整个云计算的服务器资源被攻击从而造成云计算环境的瘫痪。 针对这类型公用基础设施的安全需要部署防护。 在此背景下,不同的租户可以选择差异化的安全模型,此时需要安全资源池的设备可以通过虚拟化技术提供基于用户的专有安全服务。 如针对防火墙安全业务的租户,为了将不同租户的流量在传输过程中进行安全隔离,需要在防火墙上使能虚拟防火墙技术,不同的租户流量对应到不同的虚拟防火墙实例,此时,每个租户可以在自身的虚拟防火墙实例中配置属于自己的访问控制安全策略,同时要求设备记录所有安全事件的日志,创建基于用户的安全事件分析报告,一方面可以为用户的网络安全策略调整提供技术支撑,另一方面一旦发生安全事件,可以基于这些日志进行事后的安全审计并追踪问题发生的原因。 其它的安全服务类型如IPS和LB负载均衡等也需要通过虚拟化技术将流量引入到设备并进行特定的业务处理。 3.3 内部人员的安全培训和行为审计为了保证用户的数据安全,云服务管理者必须要对用户的数据安全进行相应的SLA保证。 同时必须在技术和制度两个角度对内部数据操作人员进行安全培训。 一方面通过制定严格的安全制度要求内部人员恪守用户数据安全,另一方面,需要通过技术手段,将内部人员的安全操作日志、安全事件日志、修改管理日志、用户授权访问日志等进行持续的安全监控,确保安全事件发生后可以做到有迹可寻。 3.4 管理平台的安全支持云服务管理者需要建设统一的云管理平台,实现对整个云计算基础设施资源的管理和监控,统一的云管理平台应在安全管理功能的完整性以及接口API的开放性两个方面有所考虑。 前者要求管理平台需要切实承担起对全部安全资源池设备的集中设备管理、安全策略部署以及整网安全事件的监控分析和基于用户的报表展示;后者的考虑是为了适配云计算环境中可能存在的多种安全设备类型或多厂商设备,也需要在API接口的开放性和统一性上进行规范和要求,以实现对下挂安全资源池设备的配置管理和日志格式转换等需求。 也只有这样才能实现设备和管理平台的无缝对接,提升云管理平台的安全管理能力。
【答案】:C《数据中心设计规范》(GB—2017)第8.1.7条规定,电子信息设备宜由不间断电源系统供电。 不间断电源系统应有自动和手动旁路装置。 第8.1.8条规定,数据中心内采用不间断电源系统供电的空调设备和电子信息设备不应由同一组不间断电源系统供电,测试电子信息设备的电源和电子信息设备的正常工作电源应采用不同的不间断电源系统。
我们公司的一些想法和经验,今天的主要内容是关于如何定位数据中心基础设施的管理。 传统意义上的数据中心通常会和IT隔离出来,在云计算时代,我们会认为数据中心所有服务的东西都应该作为一个基础设施来看待,就像微软的集装箱,这里面已经拥有了IT技术的中心,在这个层面上就可以展开了,我们IT只能拿到我们的网络,我们的服务器。 因此意味着我们把跟IT架构的环境和整个环境作为一个统一的对象来考虑,并且考虑到之间的相互管理,这点对我们传统意义上的数据中心是不太一样的。 在数据中心的生命周期角度来讲,从设计开始,会经过实施运营持续的勾画,我们会发现这是一个数据的管理,在设计阶段,我们可以看到作为基础设施来说,IT部门不是具体到服务器的一个数量,这个时候我们需要考虑的是运算的能力,就是数据中心到底能够支撑多少运算的能力,从能力这个层面上考虑的,因此数据中心的要有这样的能力,这个能力不能一估就10年,但是我们通常是10年、20年来预估的。 整个IT预估的过程起码是1一3年。 在设计完整以后,我们进行实施,实施其实是部署的一个过程,部署完成了以后,就接着是一个运营,运营过程要解决一个很大的问题,解决实际运行的情况及跟我们当初设计的情况是否吻合,如果不吻合我们就进行调整,包括做更大动作的调整整改,假设一下,如果现在的实际情况和预想的情况是一致的,在运营层面就不用做太多的工作,现在IT的情况越来越复杂,从IT来说,投入的成本大于我们当初预算的成本,最后一个阶段是优化阶段,我们不断的调整,需求在不断的变化,我们需要进行优化,优化的结果是下一个数据中心的模式的设计,这就变成一个循环。 从数据中心的基础设施来讲,IT有五个物理需求,包括攻坚、制冷、空间、安防、布线。 我们采购IT设备的标准也必须是统一的,如果这些标准主要反映到我们刚才提炼的五个物理需求上,所以在设计的阶段,我们要注意这五个方面,但是现在的数据中心来说,用户往往会考虑得很周到,更多的是考虑供电和制冷,因为这有一个计算能力的需求,所有的服务器用电90%的用电量会进行排放,所以制冷是一个很重要的因素。 在管理的层面上有三个非常重要的地方,第一,保证IT的可控性,我们一般把IT分为三个层面,对底层的是基础设施,上去是IT,IT上去是业务应用,比如说IT层面像业务层面提供服务的,如果业务层面不可用的话,说明IT存在的必要性会受到一个挑战,因此,保证可用性是第一位的,再满足第一位的情况下,我们可以降低运营的成本。 对于数据中心的运营来说,我们可以拆散为几个阶段,第一个阶段是部署,也就是支撑IT运营的过程,第二个是IT业务系统的上线,业务开始运作了,我们各种OA都可以运用,第三是对监控系统,发现问题后,我们可以采取相应的行动,确保业务系统的正常运作。 第四,确保业务可用的情况下,我们可以用一些技术或者是云的技术新一代的技术实现绿色的优化,降低运行的成本。 在数据中心,基础设施目前面临的挑战可以有五点。 第一点是可用性,这也是我们存在必要性一个很重要的地方,后面两点是我们在云时代继续生存的要素,包括在生命周期内的可适应性和可扩展性。 最后两点的可管理性和可维护性/服务型做到,这五点他们是相互依托的。 回到最初的设计阶段,看上去跟IT没有很大的关系,因为在我们公司的设计阶段,IT基本上是不存在的,只是一个概要的需求,当数据中心运行起来以后,我们可以通过这个图展示数据运行的情况,发现机位是不是过热,供电是不是足够的情况,因为我们设想跟实际情况是有差异的,所以我们要对这个数据进行管理。 我们尽可能的缩小实际跟设计之间巨大的差距,当然缩小是不可能最小化的,不然的话,我们的业务就没有发展,到了差距没有办法缩小的时候,我们应该增加一个模块实现扩充,这也是数据中心模块化的定义,当前可以从两个方面缩小差异,一是构建支持硬的基础设施,包括通过可调整模块化的基础设施,比如说,模块化的UPS,模块化的供电,模块化的空调实现基础设施的设计,另外我们可以通过配电和容量管理系统帮助我们掌握基础设施的消化的趋势,我们可以通过了解未来IT的发展趋势,包括云计算这些新的技术,便于我们在数据中心采取更好的技术,使这个数据中心有更强的生命力。 第二块,通过优化基础设施的使用,做一些全面、细致和精准地了解,通过规划地使用基础设施,通过这些延长数据中心的使用,实时检测基础设施,排除异常的情况,从而使基础设施能够得到很好的使用。 假设我们现在是维护一个好的数据中心,其实非常重要的一点是在于挖掘,我们经常说我们的网络是不可管理的,目前大多数的基础设施是可以管的,我们面对新的数据中心的时候,或者是对数据中心进行调整的时候,第一步是对原有投资过的一些功能给挖掘出来,比如说以前的制冷的UPS,把可管理的功能挖掘出来了以后,可以整合到新的平台里面,这是非常重要的一步,这里面涉及到局限性,主要是在于数据的兼容性和管理的细化,可以这样讲,对于一个管理接口,管理的力度决定了可以管理的深度,因此在设计阶段,我们决定自己管理的深度和可管理的光度,在这个层面上决定我们需要购买哪些设备,如果我们投资很多的钱买一个功能丰富的设备,但是发现我们管理上是达不到这个水平的,实际上这也是一种浪费。 在基础设施的管理方面,我们很少说管理这个词,大多的时候是使用监控这两个字,在中国的词汇里面,监控有两个方面的含义,检是代表检测、采集和收集大量的数据,控是做一些反馈,调整运行状态,怎么根据收集上来的运行数据决定策略对于大多数的用户来讲,绝大多数都放在检测上,对于监控是一个自化性的,或者是本能执行的手段。 如果这是一个云的数据中心,我们就可能在依据手动的方式进行调整,而是根据收集上来的数据进行判断,再根据业务进行混合决定如何控。 这个控的过程也是自动的,这样的话,响应的速度才能足够的快,才能满足云计算的要求,同时,这也意味着检测的时候,我们决定着设备采集的信息量的大小。 在整个过程里面,我们需要消费我们收集上来的检测数据,加上我们本身对这个数据的知识库,最后形成了一个控制的结果,这也是管理里面最核心的地方。
本文地址:http://www.hyyidc.com/article/24838.html