图片 3

数据中心“大扫除” 机房清洁其实很简单(1)

数据中心在商业运营中扮演的角色越来越重要,在数据中心运营商眼中,最小化运营成本往往是头等大事,提高IT设备运行效率,减少运营成本的好处也会传递给客户,从而形成竞争优势。管理效率很低的数据中心各方面成本都会上升,将会削弱总体盈利能力。清洁数据中心环境中的关键组件对提高运行效率有非常大的标注,本文将侧重介绍清洁关键环境非常重要的课题(BKJIA推荐阅读:你干什么吃的!详解数据中心的人为失误)。

模块化数据中心是为了应对云计算、虚拟化、集中化、高密化等服务器的变化,提高数据中心的运营效率,降低能耗,实现快速扩容且互不影响。微模块数据中心是指由多个具有独立功能、统一的输入输出接口的微模块、不同区域的微模块可以互相备份,通过相关微模块排列组合形成一个完整的数据中心。微模块数据中心是一个整合的、标准的、最优的、智能的、具备很高适应性的基础设施环境和高可用计算环境。

如今的时代,每个人都希望走向绿色。绿色这个词本身已成为一种趋势。人们都在热切关注着气候变化。采用可再生能源、减少污染,以及回收废品的重要性日益凸现。企业也正在宣传他们的环保实践和产品。组织正在为他们的数据中心寻求高效节能的解决方案,以减少停机时间,并提高效率。以下列出的一些做法将帮助人们延长数据中心的使用寿命,同时推迟人们对数据中心扩建的需求。

图片 1

图片 2

想了解是哪些设备吗?大家都知道,数据中心的设备消耗了提供给数据中心的大部分电能。那么人们会在哪里开始实行其绿色趋势呢?那就是对处在生命周期最后期限的硬件设备进行改造或更换。如果由于缺乏资源,或某种原因人们不能更换这些设备的话,就要确保他们得到妥善保养和维护。这样做将对整体能源的使用产生显著的影响。

每花费1美元,就需要在电力和制冷成本上花费51美分 

传统机房:

有一点要考虑的是,这些IT设备配有恒温风扇控制,确保这些风扇的气流具有到达服务器没有阻碍的路径,保持在控制的温度范围中,提高运行效率。还要保持进气格栅的清洁,并确保配件不会阻碍气流的路径,如电缆管理臂、机架PDU等,以确保数据中心的优化运行。

在新兴数据中心地域,如凤凰城、硅谷、洛杉矶、盐湖城和欧文等地,保持高水平服务的同时减少成本成为时下最热门的话题。一个15000平方英尺的数据中心每月的电费要10万美元,根据以往的经验,一个典型的数据中心电力成本会高于硬件成本,据IDC最近所做的一项研究显示,在服务器上每花费1美元,就需要在电力和制冷成本上花费51美分,因此,只要略微减少或增加电力消耗,都将对整个数据中心产生巨大的影响,遗憾的是,许多数据中心并不知道如何调整电力消耗,在这种情况下,知道如何清洁数据中心是至关重要的。

传统机房一般采用工业空调对机房整体空间制冷的方式;或者是采用精密空调架空地板下送风方式制冷方式。第一种方式因为没有区分冷热通道,制冷效率较低;第二种方式在机房净高比较充裕的情况下才能考虑,所以对机房也有要求。

冷却设备通风口

有许多因素影响数据中心的运营效率,包括优化的电力输出、气流、冷/热通道配置、散热效率和温度控制,电源使用效率PUE)是衡量一个数据中心运营、管理水平的关键指标,也是绿色、节能、环保考察的重要指标,其具体计算公式是:(数据中心的总用电量)/(IT设备的总用电量)。在低效数据中心中,大量的电力都被浪费在空气冷却上,如果有专业团队清洁数据中心关键位置,确保气流流通顺畅和合理,就不用担心这些了。

图片 3

数据中心需要冷却设备以保持最佳的温度水平。通常的空气流路是通过空调设备到IT设备,再回到AC设备。

、传统数据中心面临的问题:

有时,气流可能不会走这条路径。从出口的气流可能会返回到输入端,从而会降低冷却效率,并大大降低了冷却的能力。再循环(热空气从IT设备可能会找到自己的方式给AC入口)则是另一种可能性。

1、建设周期长

保持热空气与冷空气彼此远离,可以有效地冷却和管理气流,节省成本。通过阻止机架周围任何未使用的空间,这样就不会有热空气从机架后面泄漏到其前面,优化热通道/冷通道的机架可以达到阻止热空气泄漏的目的。

传统数据中心建设周期根据项目建设的实际情况,通常将数据中心的基本建设周期细分为决策阶段、实施准备阶段、实施阶段和投产竣工阶段,整个建设周期大概在400天左右。

热空气回流到每一个空调设备是很重要的,IT设备行应该使得周边空调设备被集中在热通道的末端。如果热通道比空调设备多,可以把空机架放置在最近的空调设备行的端部,以保持热空气导向正确,而不会影响设备操作。在许多情况下,采用简单的塑料窗帘可进一步分离冷热空气,确保只有冷空气供给到设备,而热空气具有一个返回到空调设备清晰的路径。

2、扩展性差

数据中心不是冷库

扩展能力对于适应性就十分重要了,基于对未来业务需求的分析,根据最坏的情况来规划系统容量,然而他们却无力预见3到4年以后的情形,因此造成了过度建设。

现在我们知道,数据中心的温度要相对较低,但是当工作人员进入数据中心,不应该感觉就像进入了冷库。而数据中心过冷的原因很多,例如数据中心没有根据设备的需要,有效地保持相应的温度。而所有主要设备制造商支持的温度范围是由美国供暖制冷及空调工程师协会(ASHRAE)推荐的,采用温度范围的上限77°F可以为企业带来良好的经营利润,并节省可观的电能成本。

3、能耗高

估计各种参数