www.hj8828.com 8

【www.hj8828.com】暗红数据基本思虑点

技术进步,因而更高端计算设备需求增加,相应也提高了数据中心的制冷和供电要求。到目前为止,数据中心的电力和制冷是影响能源利用效率的两个主要因素,各种组织需要采用几种方式来保证更好的PUE值。理解PUE的重要性有利于提高能源效率并降低成本,这个过程中需要优先考虑未来的投资以及现有建筑的专用化需求。

模块化数据中心是为了应对云计算、虚拟化、集中化、高密化等服务器的变化,提高数据中心的运营效率,降低能耗,实现快速扩容且互不影响。微模块数据中心是指由多个具有独立功能、统一的输入输出接口的微模块、不同区域的微模块可以互相备份,通过相关微模块排列组合形成一个完整的数据中心。微模块数据中心是一个整合的、标准的、最优的、智能的、具备很高适应性的基础设施环境和高可用计算环境。

1 绿色数据中心规划与设计

PUE定义为总基础设施能耗和IT设备能耗的比值:

www.hj8828.com 1

     范围:选址、土建,机房、办公等区域规划

www.hj8828.com 2

传统机房:

考虑点示例:

总基础设施能耗Total facility
power)指的是运行一个数据中心的全部能耗,这包括IT系统,比如服务器、网络设备和存储的能耗,以及其他设备比如制冷系统、UPS、切换设备、发电机、PDU、电池、照明和风扇等)的总能耗;IT设备能耗IT
equipment
power)可以定义为计算、存储、KVM交换机、监控、笔记本电脑以及网络等设备的能耗。

传统机房一般采用工业空调对机房整体空间制冷的方式;或者是采用精密空调架空地板下送风方式制冷方式。第一种方式因为没有区分冷热通道,制冷效率较低;第二种方式在机房净高比较充裕的情况下才能考虑,所以对机房也有要求。

避免过度规划

更好PUE实现的几个方法

www.hj8828.com 3

机房最好建在大楼的二、三层。

1、数据中心的选址

、传统数据中心面临的问题:

机房尽量避免设在建筑物用水楼层的下方

PUE值中的两个主要因素是制冷因素和电源因素,这会很大程度影响你选择建设数据中心的地方。比如,
Delhi市的某数据中心环境温度高,那么需要更多的制冷能耗,这种数据中心需要有自然冷却和水冷方式的结合,才能得到较好的PUE值。

1、建设周期长

机房选在建筑物的背阴面,以减少太阳光的辐射所产生的热量

而在印度,要实现24小时不间断的可用电力是个大问题,那么为了得到更好的PUE必须缩小可行的选址范围,比如城市周边,以得到稳定可靠的电力。

传统数据中心建设周期根据项目建设的实际情况,通常将数据中心的基本建设周期细分为决策阶段、实施准备阶段、实施阶段和投产竣工阶段,整个建设周期大概在400天左右。

排烟口设在机房的上方,排废气口设在机房的下方

2、总基础设施规划

2、扩展性差

主机房区域的主体结构应采用大开间大跨度的拄网

让你的数据中心架构遵从LEEDLeadership in Energy and Environmental
Design)规范,这也会帮助你减少总能耗。自维护的解决方案中,建筑允许室外光线进入,但同时又能阻挡室外热量进入。你也可以选择先进技术,比如在数据中心中的特殊区域采用高密度制冷,这样你就可以放置你的高性能设备来降低PUE值。

扩展能力对于适应性就十分重要了,基于对未来业务需求的分析,根据最坏的情况来规划系统容量,然而他们却无力预见3到4年以后的情形,因此造成了过度建设。

一、合理开发利用地下空间

考虑建设模块化数据中心也是降低PUE的一种方式,在整个大的数据中心中隔离出一些小的数据中心,将不同功率密度的区域进行分区,比如高密度区、中密度区以及普通密度区,也可以实现你的PUE要求。

3、能耗高

二、排水系统

3、调整你的数据中心设计

巨大的电力损耗数据中心的运行需要大量的电力,传统建设没有很好地考虑用电、制冷、气流管理的问题,很多数据中心的PUE(PowerUsageEffectiveness,数据中心能源效率指标)偏高,采用常规意义下的可靠性较高的环境动力设备,但这些设备往往效率较低,数据中心的PUE都在2.0以上甚至更高,这意味着数据中心所使用的能源约有一半消耗在IT负载上,另一半消耗在包括电源设备、冷却设备和照明设施在内的网络关键物理基础设施上。

根据地形、地貌等特点合理规划雨水排放渠道、渗透途径或收集回用途径,保证排水渠道畅通,实行雨污分流

典型的数据中心设备可以分为顶部送风散热和底部送风散热,我们知道热空气会自动向上流动,如果采用底部送风的方式来提到顶部送风的方式,也可以实现更好的PUE值。

4、机房运维难度大

三、采用燃气锅炉供热

设计以及布置机柜的位置可以直接影响你数据中心的PUE值,热通道/冷通道方式是个不需太多投入就能获得好PUE的一种方式。只需要很少的一些定制,你甚至可以放置一些风扇到顶部,就可以抽出热通道的热风。机柜内制冷机柜内带有制冷单元)也是另外一种提高能源效率的一种办法。

IT运维正面临诸多问题,深陷服务质量低下的困境而无法自拔:粗放式运维,资源台帐不清;加上运维人员交替,运维人员并不了解所有IT资源,管理更无从谈起;缺乏统一的服务接口人,故障响应和故障处理跟踪出现混乱;系统运维优化需要IT人员积累大量的数据和报表进而得出结论,而日常的IT运维管理难以有效统计这些数据。

不采用电热锅炉、电热水器作为直接采暖和空气调节系统的热源。本项目采用燃气锅炉供热,属于非电热产品类热源

www.hj8828.com 4 
图2 数据中心不同送风方式

模块化机房:

可能亮点:

4、隔离的需求

模块化机房与传统机房最大的区别在于能够最大限度的利用制冷功率为设备散热。因为其采用封闭冷通道方式,冷气与热气隔离,整体提高制冷效率;空调与IT机柜并排间隔摆放,采用空调水平送风直接对机柜吹冷风,满足其散热需求,降低能耗30%以上,为客户节约大量运营成本。其次,模块化机房能够快速部署。因其出厂前完成机柜的预安装,现场只需接通外部电源,固定机柜等简单操作即可使用。

 

在夏天,环境温度升高,因此需要额外更多的制冷。建议在数据中心的外墙上涂上隔热层来降低PUE。

www.hj8828.com 5

2 机房环境与材料   

在屋顶上做隔热台阶也是获得更好PUE的一个办法。在很热的地方,屋顶是最先被加热的,因此可以种植一些植被在屋顶和露台上,并且每天浇灌它们,这样来得到一个环境友善的方式来隔离数据中心受外部热量的影响。

1、快速部署、缩短建设周期

范围:机房内部

5、在服务器层面来得到更好的PUE

微模块数据中心加快规划与设计速度,可根据设计目标以合理的方式配置系统结构,微模块批量生产可以实现现货供应,因而提高了交货速度;标准化的连接方式可减少现场配置与连接的工作量,加快安装速度;微模块数据中心建设周期可大大缩短,传统数据中心实施阶段需要7-8月,采用微模块建设缩短至2-3个月。

考虑点示例:使用新环保材料(密封、遮阳、绝热、不起尘、不吸尘、污染少、具有一定的吸音、防火、防水、防腐能力等)、温度、湿度(在加/除湿耗能较大的机房可以考虑增加专用加/除湿设备)、抗静电、承重、合理的机柜布局

检查你服务器的效率,以及备用模式或者高压力情况下的功耗。给各种计算、制冷、温度范围以及服务器设备不同利用率下的电力需求等设置基准。

2、方便扩展、分期建设

 

模块化数据中心有助于获得更好的PUE值,你可以隔离高功率的服务器区域,并且分散于数据中心的不同区域。虚拟化也可以在提升PUE方面有很好表现。

采用微模块的架构,数据中心可以逐步增加,因而可使从1个微模块到几十个微模块根据需求分期建设。大型数据中心的任何大小的IT空间的配置达到最佳状态。微模块数据中心方案显著降低了数据中心在使用寿命期间的成本。

5.3 制冷与气流组织

6、UPS级变化来提升PUE值

3、标准模块、稳定可靠

范围:水冷、风冷、新风系统、排风系统、空调系统。

让UPS的容量和系统负载匹配来得到更好的PUE值。如果你的UPS负载率只有30%,系统效率将比较低。模块化数据中心可以帮助你在需要的时候投入需要的UPS容量。比如你已经有了500KVA的UPS容量,而你的需求又增加情况下,你可以额外再投入的一个100KVA
UPS,而不是采用另外再建设一套系统的办法。

微模块数据中心采用模块化、标准化和高整合设计,使得整个系统稳定度高。同时,微模块数据中心可依据客户需求,在电力备援方案上提供N、N+1、2N等配置方案,满足TIA-942最高Tier4水平。

考虑点示例:

7、存储级提升PUE的办法

4、绿色、节能

配风、气流组织等方面合理设计降低空调的使用成本。

存储能耗取决于你给不同类型存储设置的基准。

数据中心在使用寿命期间的电力成本是TCO
(TotalCostofOwnership,总拥有成本)中最大的一项。相比传统机房,微模块数据中心制冷效率提升12%以上。微模块数据中心结合水冷系统、自然冷却系统,PUE可降至1.5以下。

空调选型(关注机房热负荷和换气次数)

·静态数据的存储,或者无需实时交易的数据存储

5、智能管理、高效运营

机房空调联机控制(选取机房中某一台空调作为主控空调,其他空调依次与其控制器连接,通过主控空调的传感器信息来控制机房所有空调,实现一致性的升降温和加除湿状态,等);

·需要经常读取以及处理数据的高性能存储

智能的管理系统能够帮助客户节能降耗,实现数据机房多层级、精细化能耗管理,通过多种报表精确定位能源额外损耗点。基于大数据分析,输出节能优化方案,构建绿色数据机房。最佳资产管理是对于全网资产的生命周期进行管理实现资产信息的闭环管理,保证数据及时刷新,及时管理。同时帮助用户制定资产维护计划,在维护计划内帮助客户实现主动预警,同时可动态调整维护计划,按照当前实际情况输出优化方案,构建最佳资产管理功能。

将不必要的冗余空调负载减供;

至于服务器设备,你也可以考虑放置高性能存储服务于数据中心不同的区域,然后根据制冷以及电力需求来设计,来匹配不同PUE的水平。

www.hj8828.com 6

将无效使用的进行无效能减供;

8、管理工具

智能模块化数据中心融合了供配电系统、机柜系统、制冷子系统、综合布线及智能管理系统等。是基于云计算及移动互联网等业务的飞速发展,骤增的IT密度与能源消耗使传统数据中心面临诸多挑战,为满足未来云计算及虚拟化需求,有效提高数据中心的工作效率,控制投资成本等需求而研发的新一代数据中心基础设施解决方案。以下是两种智能模块化数据中心的解决方案。

有效使用大自然新风供冷的制冷能力,利用室外温度调节室内温度。

监控基础设施和测量效率要求严格的管理,一个简单的excel表单也许就有帮助。设计你自己的工具来更好得帮助你管理基础设置,经常的审查也可以帮助效率数据的比较,从而实现持续的改善。基于实时数据,每分钟获取一次,或者每小时获取一次,通过这种方式最终可以获得PUE的很大改进。

www.hj8828.com 7

对温度精确度要求相对宽松(例如程控机房要求15-25℃)的机房区域,保持恒温(20℃)是对电量和技术优势的浪费。
所以,应该根据温度要求情况合理进行温度调节,需要提前梳理机房不同机房模块和不同设备对温度湿度的要求区间。

你也可以采用绿色网格设计的数据中心成熟度模型DCMM)作为你目前PUE水平的基准,DCMM涉及数据中心的主要部分:电力、制冷、网络、存储以及计算。

双排模块化数据中心

适当设定回风温度值(当程控机房需要降温时,空调工作在制冷状态,此时若将回风温度值设高些(在满足机房温度要求的条件下),会使压缩机运行时间缩短起到节能作用。同理,当程控机房需要升温时,空调工作在加热状态,此时若将回风温度值设低些,会使加热器运行时间缩短起到节能作用)

www.hj8828.com 8

只在设备需要时才开启制冷,改变空调7×24小时不间断运行方式为间断性的运行方式。

利用热工学和3D建模来优化数据中心制冷气流,防止热风回流、防止阻碍送风。

风冷式、水冷或乙二醇水冷式、冷冻水式、双冷源系统等。

计算机房送风需求、合理部署空调。

采用计算机自动控制技术,随时根据外界因素的变化,通过对空调运行状态的判断,自动调节室内温/湿度值,使压缩机或加热工作时间减少,达到节能目的。

采用水冷作为冷媒的空调或采用制冷背板;
液冷系统的制冷原理是,把冷水送达到液体冷却柜。先用柜内风机将热风从服务器后部抽到液体冷却柜中,用内部水管制冷热风,然后将冷风吹到服务器前部,而热水再回流到室外的循环制冷设备,通过这一过程不断循环达到制冷效果。