数据中心机房风冷却节能措施
讯道通信工程
讯道通信,是一家专业从事网络信息应用平台组建研发,致力于数字化城市和智慧城市建设中计算机中心机房、安防监控、智能楼宇、数字化信息应用等领域的系统设计、工程服务、软硬件开发、运营维护的完整解决方案提供商。
001/
数据中心机房多年来一直主要使用机房专用精密空调做为主要机房散热设备。随着计算机设备的更新换代、IT设备的功率密度越来越高、机房面积越来越大、机房的数量越来越多、世界能源越来越紧张。在这些情况下,虽然机房空调制冷能效比有所提高,但数据中心机房在日常运行中制冷所耗费的电能太高,一直困扰的机房的用户们。如何运用新的技术降低机房散热所消耗的电能,建设绿色环保机房,已成为数据中心行业建设者们关注的核心问题。
002/
降低机房散热所消耗的电能,提高数据中心机房的电源使用效率,降低数据中心的PUE值,目前主要有以下几种方法:
1、在数据中心机房中建设冷通道,并配置下送风机房专用风冷式精密空调;(冷通道+精密空调)
2、在数据中心机房中建设热通道,并配置下送风机房专用风冷式精密空调。(热通道+精密空调)
3、在数据中心机房中建设专用风冷式精密空调冷风和热风管道,对机柜进行全密封强制散热。
4、在数据中心机房中使用下送风机房专用风冷式精密空调和智能送风机柜,将机房冷风净压仓的冷风直接送入机柜。(智能送风机柜+精密空调)
5、在数据中心机房采用大型水冷式机房精密空调。
6、在数据中心机房建设专用大型水冷式机房精密空调和芯片冷却管道,直接给IT设备芯片散热。
7、在数据中心机房采用机房风冷式精密空调+大型新风机1:1配置,合理利用自然新风冷源。(节能新风机+精密空调)
备注:以上模式只在基础层面讨论,扩展与细化方案如:列间空调加冷通道、水冷空调加冷通道、节能新风机配合智能送风机柜等不在此详列。
这几种方法有各自的优势和不足,首先从冷源方面来分析,第1、2、3、4种方法均都是采用机房专用风冷式精密空调做为冷源,第5、6种方法采用水冷式精密空调,第7种采用风冷式精密空调或自然冷风和水模。使用风冷式精密空调的方法在节约电能主要依靠空调的制冷能效比,能效比一般在3-4之间,节能方面有限。使用水冷式精密空调,能效比最大能达到6,一般在4以上。使用自然风的新风节系统时,最大的能效比最大可达12。
003/
接下来,从机房内设备散热效果方面来分析,第1、2、5、7种方法都采用冷风源被动平均分布散热,要求整个机房的发热量布局要非常均衡,否则可能出现机房冷热不均,单相机柜局部过热的问题。
第3种采用主动大风量强制散热,每个机柜热出风管道都配有风机,散热效果好,容易出现过度制冷,风机也需要消耗一定的电能。
第4种方法采用主要设备机柜进风口配置变速风机,动态给机柜提供冷风,较好解决局部单个机柜过热和机柜内热负荷突然增大的问题,将机房内的温度提高到空调的回风温度,但机柜的深度比普通机柜深度要大100mm,风机需要消耗电能。
第6种方法采用精准散热,主芯片散热效果好,但电源、硬盘等部件需要精准散热不容易实施,需要服务器产商支持。
最后,从机房内设备散热建设难易成度来分析,第1、2、4、7种方法基本上是比较接近,比传统下送风空调系统略微复杂一点,比较容易实施,成本相差也不是太大。
第3种方法,需要对机柜前后门进行密封,实施起来比较困难,风管建设比较多,对机房的整体布局有影响,需要非常细致的规划和设计,成本相对要高一些。
第5种方法,水冷空调的建设门槛较高,比较适用于大型的机房,空调设备比风冷式精密空调要复杂,成本相对要高一些,运行也需要专业维护人员。
第6种方法,空调部份和第5种方法一样,但是分支制冷管道方面,会相对复杂很多,要非常了解服务器产商等设备的结构,甚至于需要它们的支持,成本方面相对会高出一部份。
要降低机房的PUE值,需要对这个机房进行全面的规化,细致的设计,做到对地理位置、楼房类型、楼层布局等环境因素做充分的考虑,做到应地置宜,选择最合适的建设方案,才能达到预期的效果。