图片 1

技能分享 5步优化你的数目主导

5.能效服务器

  不断改进热隔离

跟着数据中心功率密度越来越高,机房空调只是经过冷热通道的布局办法已经不能满意数据中心的制冷需求。所以对冷热通道气流进行遏止已经开端被用户承受,目前,许多制造商正在研制进一步运用机柜对冷热空气进行更精细的别离技能,完成更高密度的数据中心制冷。

3.调整空调温度

  无论你的公司已经开始走上了以提高数据中心能效为目的的道路,还是甚至不知道对节能何处下手,本文将介绍NetApp公司用来改善数据中心基础设施的十项方法。用户会惊喜地发现,这些方法不但简单易学,还经济可行。

尽管现在的服务器机柜生产商总是在着重机柜门的重要性,其实机柜内的气流也对服务器散热起着重要作用,例如机架配件有必要做到不阻碍冷空气的吸入和热空气的排出。机柜中的盲板也很重要,如果不在服务器之间加装盲板,那么热空气经过之间的缝隙和热空气混合,就会下降制冷功率,浪费了冷空气。

1.位置,位置,位置

  先讲讲物理知识:
热空气上升,冷空气下降。这样的规则也适用于数据中心。通过活动地板对数据中心里面铺设的地板向上输送冷却空气,这种老方法通常耗用更多能源。我们采用的是在机器正面向下输送冷空气。然后,冷空气被吸到机器里面,再从后面作为热空气排出来。热空气升到天花板后,经通风口排到外面。

最简略的数据中心热通道冷通道规划是在穿插行排列服务器机架,让冷空气的进口朝一边,热空气的出口朝另一边。机架前端组成的行称为冷通道。通常情况下,冷通道面向空调的输出管道。热空气输出的那一行称为热通道,热通道面向空调的回风管道。

谷歌公司声称“出色的空气流动管理是高效数据中心运作的基础”,你应该“开始将冷空气和热空气的混合降低到最小,消除发热点”。数据中心空气流动管理远比制冷要重要的多,事实上可以将额外的制冷需求降低。减少热空气和冷空气混合的方法之一就是安排好热通道,冷通道配置中的机架服务器。在这种情况下,冷空气吹向服务器系统的前端,热通道的热是通过排气扇排放出去。足够的空气流动还能消除热点。

  为了充分获得服务器虚拟化带来的好处,需要存储基础设施提供汇集的网络存储资源。与服务器虚拟化一样,存储虚拟化也可提高能效:
数量较少、比较庞大的存储系统提供了更多的容量和更高的利用率,因而减少了空间、电力和冷却资源。

机房空调制冷机柜起到了什么作用?热通道/冷通道的机柜布局办法被现代数据中心所采用,也是公认的数据中心最佳布局办法。这种布局办法能够有效地别离冷空气和热空气,运用空调、电扇下降IT设备的温度。热通道冷通道构造旨在经过办理气流来节约能源和下降冷却本钱。

谷歌公司在硅谷修建了占地面积超过10万平方英尺的数据中心了吗?没有。原因何在?太贵了。土地太贵,能源太贵,人员也太贵。在硅谷建一座数据中心当然是让人印象深刻,但是这么做意味着无利可图。因此可以选择更好的解决方案,将建设地点移师到价格更加便宜的地方。谷歌的美国数据中心坐落在:南卡罗莱纳州的伯克利郡;爱荷华州的康瑟尔布拉夫斯市;北卡罗莱纳州的雷纳尔市;俄克拉荷马州的梅斯郡和俄勒冈州的达拉斯市。所有这些地方都远离繁华和硅谷的费用高昂,但是你公司的股价会超过每股500美元吗?谷歌就是这样。

  多年来,NetApp里面的跨部门团队与地方电力公司之间的合作大大提高了数据中心的能效。这要归功于公司主数据中心的改进,已经达到了节省能效的目的,环保署称这种节省对2011年的数据中心而言处于”先进水平”。另外,公司预计,新建的数据中心都将符合美环保署为2011年制订的”可以达到的最高目标”,不但能提前三年实现,而且只使用现有的技术。以下是提高能效的十个方法:

高架地板的高度、机柜前门的透气孔、机柜的放置等都会影响机柜内服务器的散热才能。

谷歌公司还建议说“调高冷通道的温度将把冷却器能耗降低到最小。不要将冷通道的温度稳定在70华氏度,而是调整到80华氏度;事实上所有的设备制造商都能做到这一点。正如优化原则2中所说的,空气流动比寒冷的温度要更重要。将温度调节装置的温度调高10度会将数据中心能耗降低多达25%。

  尽量减少电力变换损耗

图片 1

数据中心是能源消耗的大户。从历史上来看,数据中心就是耗资,耗能和低效的代名词。但是事实并不总是如此。如果你打算修建一座数据中心或者你的数据中心已经在构建当中,你可以遵循谷歌公司的成功案例来了解如何构建一座高效的数据中心。以下是谷歌公司构建他们的数据中心时奉行的五大数据中心优化法则。

  不过,这种方法需要不断微调及改进。在环境工程师的帮助下,正在努力提高设定的温度点,以便更充分地利用室外空气。最初设定的温度点是11摄氏度,后来逐步提高到了18摄氏度。我们正在进一步提高到24摄氏度,这样可以把自然冷却的时间段增至全年的85%。

这种简略的机柜布局办法尽管在世界各地遍及运用,可是并非阐明它是满有把握的。有事例指出,在50KW/m2的高功率密度数据中心里,这种布局因为缺少冷热空气操控精确度,即便是安装了许多的盲板,可是仍然出现了热的旁路空气,并进行循环,导致热点许多出现。

2.管理空气流动

  管理数据

【编辑推荐】

关注服务器和存储设备的节能和效率应该是数据中心设计的基础。对于对立的数据中心而言,如果你希望能在未来保持竞争力,你的技术更新计划就应该包括能效设备。谷歌公司发起了电脑产业拯救气候行动计划作为挖掘能效服务器一种资源。根据他们电脑产业拯救气候行动计划的能效级别来划分服务器等级:分别是基础级,青铜级,白银级和黄金级。

  不过,这种方法需要不断微调及改进。在环境工程师的帮助下,正在努力提高设定的温度点,以便更充分地利用室外空气。最初设定的温度点是11摄氏度,后来逐步提高到了18摄氏度。我们正在进一步提高到24摄氏度,这样可以把自然冷却的时间段增至全年的85%。

机房空调早期的服务器机柜有着漂亮的玻璃前门,使服务器电扇不能有效地吸入冷空气。现在,如果您想在数据中心里安置冷热通道,机柜具有穿孔门是必要的,但现在机柜门的穿孔面积还没有规定标准。服务器制造商惠普推出了穿孔面积为65%的机柜,还有的制造商宣称其机柜门穿孔面积达80%.

谷歌公司对他们的数据中心所在地进行了全面的调研,你会注意到谷歌数据中心选址的周围通常都有丰富的空气资源可用。周围温度更低的空气能有所帮助。谷歌公司表示“水或者空气的经济效益能大大提高能效”。

  生成的冷空气不一定是惟一冷却来源。干嘛不同时借助大自然呢?我们使用室外空气作为自由冷却,每年可节省150万美元的能源成本。为此,我们在大楼一侧安装了调节风门,可自动调节从室外进入的空气。如果室外气温低于设定的温度点,调节风门会开启,室外空气经过滤后进入冷却系统。反过来,如果室外空气高于设定的温度点,调节风门会关闭,冷却装置则开始工作。

运用热通道/冷通道布局的数据中心还要特别注意机柜排与排之间的间隔,机房空调每个通道有必要调整到最佳距离以保证高效的冷却和散热。别的,42U是数据中心遍及运用的机柜高度,也许多制造商供给48U的产品,提高服务器机柜高度的一起也要考虑线缆、机柜配件以及PDU的安装空间预留。

4.免费的空气制冷

  电力要求和能源价格与夏季温度攀升密切相关。在温度和电力出现高峰的期间,我们以天然气为动力的热电联供(cogeneration)系统就会投入使用,为一百万瓦的数据中心提供经济的电力。通过这种方法得到了两个好处。

  避免系统过度冷却现象

  充分利用自然冷却

  利用废热

  我们还采取更进一步的行动:
在空气处理器上使用了变频驱动装置。不是让风扇一直全速运行,变频驱动装置可根据每一排机架的实际设备冷却要求来改变风扇转速。由于风扇能不断监控温度,自动调整,以便需要时加快或者减慢风扇转速,我们大大节省了能源。实际上,风扇转速降低50%可以把功耗降低87%。

  我们估计,单单放在一个数据中心的塑料挂帘每年就可以节省100万度电。

  关键在于算出准确的电力负荷,这可能很棘手。为了帮助得出合理的电力负荷估计值,我们首先在实验室环境测试了设备,之后把设备部署到数据中心。通过这样的测试,我们确定了系统的合理电力负荷估计值比厂商的估计值低30%到40%。知道这一点后,我们就能监控每个机架的电力使用情况,相应调整冷却系统,从而减少了冷却过头所浪费的能源。