绿色数据中心节能环保说明资料

数据中心节能环保说明

第一节.建议本项目采用国际机房环境标准:

从上表可以看出,采用国际机房环境标准,通过IBM的设计,在满足核心业务系统正常工作的前提下,本项目仅冷水机组能耗一项,每年可以节约非常可观的电费(见橙色高亮部分);同时增加了冬季及过渡季节利用室外自然冷源的时间。

第二节.冬季及过渡季节利用室外自然冷源

数据中心是一个需要全年制冷的场所,在冬季及过渡季节(冬末春初及秋末冬初)充分利用室外自然冷源,部分开启冷水机组甚至全部关闭冷水机组,可以大幅降低数据中心全年制冷能耗。室外环境湿球温度直接决定了利用自然冷却的时间。

100%自然冷却(全年2115小时);约占全年24%的时间,大大节约数据中心的制冷能耗。

综上所述,IBM的设计能够使数据中心在制冷能耗方面大幅降低,值得一提的是:节能是和苏宁数据中心内核心业务系统稳定工作相辅相成的,一个运行良好的机房环境,其内部的气流组织、运行功耗都应该是有计划和有组织的,是一个良性循环;反之,不但不能节能,更重要的是生产系统的可靠性下降,对核心业务可能产生宕机的风险。

第三节.数据中心制冷系统要点设计及建议

1.1.冷源设计优化建议

冷源设计不属本次招标范围,以下为技术要求及方案优化建议

本机房制冷负荷为774KW,冷水机组选型需考虑15%制冷余量,建议采用2台水冷螺杆式冷水机组,组成1+1冗余系统,单台制冷量250RT. 冷冻水系统采用一次泵变流量系统,与冷水机组一一对应设置。

数据中心空调水系统需与大楼水系统分开设置,主要原因归纳如下:

数据中心的水系统要能够实行在线维护,其可靠性及系统设计施工运维及控制系统都有不同的要求

数据中心水系统全年为制冷工况运行

数据中心冷冻水温度可以提高至11摄氏度,节省制冷能耗

1.2.计算机房环境设计标准

数据通信设备的使用环境要求依据设备的类型以及制造商的不同而不尽相同。于是硬件造商们提出了Classes 1~4数据通信设备运行环境标准 (《Thermal Guidelines for Data Processing Environments》);并由ASHRAE(美国供暖通风制冷工程师协会)于2004年发行.

Classes 1~4各级别的定义:

CLASS 1: 适用于有着重要应用的企业级的服务器以及存储设备;需要严格控制环境参数(露点,温度和相对湿度);

CLASS 2: 适用于办公及实验室的数据中心通常是由小型服务器、存储、个人电脑,及工作站构成;需适当的控制环境参数(露点,温度和相对湿度);

CLASS 3:适用于典型的办公室,家庭,仅需控制环境温度;通常用于这些设备是个人

PC、工作站、笔记本电脑,打印机;

CLASS 4:适用于PDA及个人电脑的销售网点以及一些轻工业环境。仅需做到充分的冬季取暖和通风。

Class 1 设备运行环境需求:

Classes 1级数据通信设备运行环境标准:

表1.1

图1.2 Classes 1级数据通信设备运行环境标准(焓湿图表示形式)ASHRAE及设备生产厂商扩大服务器进风参数范围的意义:可以在保证设备正常工作的前提下降低制冷系统运行成本;在冬季可以把服务器进风温度设定在较低的温度范围内即图1.2中红色区域的左侧,这样可以减少新风处理能耗降低最大限度利用室外自然冷源;在过度季节及夏季可以把服务器进风温度参数设置在红色区域的右上角,这样可以降低制冷能耗,增加室外自然冷源的利用时间。

ASHRAE TC 9.9 Class1级标准与国内计算机房规范A级机房标准对机房室内环境要求的比较分析:

1.数据比较表:

[1]ASHRAE TC9.9 Class 1 标准中干球温度及相对湿度参数为服务器进风测参数;电子信息系统机房设计规范A级机房标准中干球温度及相对湿度参数是指房间控制温度设定值(通常为精密空调回风设定温度);

表1.3

2.两种环境标准对冷水机组制冷效率的影响:

两种环境标准的主要区别在于对服务器进风温度的要求不同;电子信息系统机房设计规范要求服务器进风温度在13~15℃(考虑8度服务器温升);而ASHRAE 与设备厂商对服务

器要求的进风温度范围:18~27℃;提高服务器进风温度意味着可以提高精密空调送风温度;

提高精密空调送风温就意味着可以提高冷水机组的冷冻水出水温度,提高冷水机组冷冻水温

度意味着可以提高蒸发温度,带来更高的机组能效比;

冷冻水出水温度变化对机组制冷效率的影响见图1.4:

图1.4

冷水机组出水温度越高制冷效率越高

综上所述我们建议:参考ASHRAE TC 9.9采用Class 1级标准作为苏宁数据中心机房服务器运行环境标准。精密空调室内机组温度控制方式改为送风温度控制。同时提高冷水机组冷冻水出水温度至11摄氏度,在降低冷水机组压缩机制冷能耗的同时,使末端精密空调处于干工况运行模式,减少室内冷凝水的产生,同时节省了加湿能耗以及加湿设备的维护成本。

1.3.自然冷却系统

采用自然冷却系统,冬季可不开或少开冷冻机,节约能源。江苏地区每年部分使用自然

冷却的时间为15%;全部使用自然冷却时间为25%。

江苏地区典型气象年逐时参数报表

1.4. COOL-HUB

COOL-HUB -12 COUPLE/带水力平衡及流量测试功能

COOL-HUB -12 COUPLE/ 是一款为数据中心冷冻水系统定制水力分配设备,他集水力平衡水力分配及流量测试于一体.

1.带系统清洗旁路,可以避免系统请清洗时把杂质带入精密空调的盘管内.

2.自动水力平衡,消除精密空调制冷量不均情况,节约制冷能耗。

3.自动调节分配给每个之路精密空调的流量,同时通过CPI流量测试设备可精确的测出每路支管的流量.。

4.可以与精密空调完美结合消除解除室内漏水隐患。

5.可以集中维护,不需要在每台设备上进行操作,大大降低了维护的工作量,并且在有些安装条件恶劣的情况下,原先不可维护的设备,维护变得非常便捷。

进口 IBM-customization-hose 1”柔性保温软管及接头,耐压16bar.

1.5.不间断制冷系统

精密空调系统是数据中心的一个重要组成部分,精密空调系统不仅要满足室内温、湿度控制精度需求同时可靠性要求不能低于其它系统,不能使制冷系统成为数据中心稳定运行各因素的短板。常规数据中心的制冷系统从一个备用发电机获得备份电力而不是靠不间断电源供电。在一般的数据中心(单机柜装机功率小于3kW)中,发电机启动延迟是可以接受的,因为失去5-20秒(发电机启的制冷和气流供应引起的温度升高只有大约1°C。但是,在每个机柜10kW高密度负载的情况下,气温在发电机启动延迟过程中会升高8-30°C这是不可接受的。因此,在高密度环境中,制冷系统的持续运行是非常必要的,以确保不间断的散热。传统风冷精密空调系统接入不间断电源系统(UPS)会造成成本大幅增加。而水冷系统实现不间断制冷就来的容易很多:我们建议将空调系统冷冻水循环水泵以及精密空调室内机的风机由UPS供电,然后在冷冻水给水系统中串联一个蓄冷水罐,蓄冷量维持时间同UPS

电池后备时间。满足The Uptime

Institute CLASS A级(最高级

别)不间断制冷的要求。

1.6.精密空调系统气流组织优化设计

数据中心的机柜摆放按照冷热通道分来的原则,这是目前比较通用的设计思路,但是,从节能和充分利用精密空调效率的角度来看,仅仅按照区分冷热通道的原则还是远远不够的,下面,我们借助于专业的气流分析工具,来比较直观的看一下A和B两种设计方式的效果:

A:气流组织模拟图1

精密空调下送风送出的冷气流大部分是通过出风口地板直接上回到精密空调上方,而机柜内部的温度还是比较高,IT设备的发热量并没有按照设计要求带走,冷热气流组织比较紊乱。

B:气流组织模拟图2

从气流走向图,可以明显看出冷空气从机柜背面出来被吸入精密空调,下送风送出的冷气是通过带有前后网孔门的机柜,将IT设备散发的热量带走,再从机柜

的背面、顶部回到精密空调上方,机柜内部的温度明显下降。可以达到设计要求。

可以看到数据中心内有明显的热点,机柜温度比较高。

D:气流组织模拟图4

数据中心内基本没有热点,而且机柜温度达到设计的要求。

上述模拟图是根据我们的设计参数(如通道尺寸、机柜数量、空调制冷参数等)输入相关的专业软件得出,从上述对比我们不难看出,尽管机柜按照冷热通道来摆放,根据机房产生的发热量计算,精密空调的制冷量也能够达到设计要求,但是其制冷效率和效果却大相径庭,因此,除了精密空调需要按照冷热通道的方式来摆放以外,我们还需要从下面几个方面来提高精密空调的制冷效率,同时达到节能的效果:

1.精密空调的摆放位置

2.出风口地板位置的调节

3.走线形式(上走线或下走线)的确定

4.新风系统的合理设计

5.风口地板的参数选择等

相关文档
最新文档