数据中心能耗分析.doc
《数据中心能耗分析.doc》由会员分享,可在线阅读,更多相关《数据中心能耗分析.doc(7页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、如有侵权,请联系网站删除,仅供学习与交流数据中心能耗分析【精品文档】第 7 页数据中心能耗实例分析前言:本文着重分析了影响数据中心能耗的因素,从数据中心的空调、UPS、运维等方面对其能耗进行了综合分析。本文认为影响数据中心能耗的关键因素是空调系统,并以2个数据中心的空调系统为例,结合作者在数据中心建设和运维中的经验,提出了数据中心节能的建议。一、 数据中心节能的必要性近年国内大型数据中心的建设呈现快速增长的趋势,金融、通信、石化、电力等大型国企、政府机构纷纷建设自己的数据中心及灾备中心。随着物联网、云计算及移动互联概念的推出,大批资金投资到商业IDC的建设中。数据中心对电力供应产生了巨大的影响
2、,已经成为一个高耗能的产业。在北京数据中心较集中的几个地区,其电力供应都出现饱和的问题,已无法再支撑新的数据中心。目前某些数据中心移至西北等煤炭基地,利用当地电力供应充足、电价低的优势也不失为一个明智的选择。随着数据中心的不断变大,绿色节能数据中心已经由概念走向实际。越来越多的数据中心在建设时将PUE值列为一个关键指标,追求更低的PUE值,建设绿色节能数据中心已经成为业内共识。例如,微软公司建在都柏林的数据中心其PUE值为1.25。据最新报道Google公司现在已经有部分数据中心的PUE降低到1.11。而我们国内的PUE平均值基本在1.82.0,中小规模机房的PUE值更高,大都在2.5以上。我
3、们在数据中心绿色节能设计方面与国外还存在很大差距,其设计思想及理念非常值得我们借鉴。根据对国内数据中心的调查统计,对于未采用显著节能措施的数据中心,面积为1000平方米的机房,其每年的用电量基本都在500多万kWH左右。因此对于新建的大型数据中心,节能的必要性十分重要。从各大数据中心对电力的需求来看,数据中心已经成为重要的高耗能产业而非“无烟工业”,建设绿色、节能的数据中心急需从概念走向实际。二、 影响数据中心能耗的因素数据中心的能耗问题涉及到多个方面,主要因素当然是空调制冷系统,但UPS、机房装修、照明等因素同样影响着数据中心的能耗,甚至变压器、母线等选型也影响着能耗。例如,对UPS而言,根
4、据IT设备的实际负荷选择合理的UPS容量,避免因UPS效率过低而产生较大的自身损耗。同时,选择更加节能的高频UPS、优化UPS拓扑结构都可起到节能的效果。1、 UPS对数据中心能耗的影响UPS主机的自身损耗是影响数据中心能耗的一项重要因素。提高UPS的工作效率,可以为数据中心节省一大笔电费。下图为某大型UPS主机的效率曲线。从该曲线中可以看出,当UPS负荷超过30%时UPS的效率才接近90%。很多数据中心在投运初期IT负荷较少,在相当长的时间内负荷不足20%。在此情况下UPS的效率仅仅为80%左右,UPS的损耗非常大。因此,在UPS配置中尽量选择多机并联模式,避免大容量UPS单机运行模式。例如
5、,可以用两台300kVA UPS并联运行的模式代替一台600kVA UPS单机运行模式。其优点在于IT负荷较少时只将一台300kVA UPS投入运行,另一台UPS不工作,待IT负荷增加后再投入运行。这种UPS配置方案及运行模式可以提高UPS效率,降低机房能耗。2、供配电系统对数据中心能耗的影响数据中心的用电负荷非常巨大,并且有很多变频设备例如冷水机组、水泵、冷却塔、照明灯具等,这些变频设备会产生很大的谐波。此外,UPS、IT设备等也会产生很大的谐波。谐波对数据中心有非常大的危害,而且会增加能耗。对于用电负荷为1000kW的数据中心,进行谐波治理后,每年可节能100多万度电。3、空调系统对数据中
6、心能耗的影响据美国采暖制冷与空调工程师学会(ASHRAE)技术委员会9.9(简称TC9.9)统计报告显示,数据中心各部分的用电量分布大致如下图所示:从上图可看出,空调制冷系统占数据中心总电量的近三分之一,是影响机房能耗的关键指标。每个数据中心空调制冷的能耗存在很大差异,好的空调制冷方案可以极大降低能耗,降低PUE值。因此,本文以2个数据中心为例,着重分析空调系统对数据中心能耗的影响。三、 数据中心空调系统实例分析1、 小型数据中心空调系统能耗分析以南方某数据中心为例,说明小型数据中心的能耗。该数据中心2007年建成,IT机房总面积为530平方米,220个机柜。4台120kVA UPS,3用1备
7、,每个机柜的平均功率为1.3kW。采用风冷式精密空调制冷,配置10台80kW显冷量空调,8用2备。经多年运行,目前该机房负荷已接近满载。该机房是在厂房基础上改建而成,几乎没有采用任何节能措施,仅在改建过程中对楼板、墙壁、门窗等进行加固、封闭及保温处理。 该机房的年PUE值为2.68。每天的用电量约为1.3万kWH。该机房原配置8台精密空调,6用2备。机房建成后出现局部热点,经分析后,确定由3个因素所致。其一,因机房层高较低,机房架空地板仅为350mm,扣除地板下的强度电缆线槽,有效静压箱高度很低,不利于气流流动。其二,该机房存在空调死角,气流无法有效流动。其三,空调室外机与室内机的高度较大,超
8、过20米,对额定制冷量有折减。为解决上述三个问题,只能通过增加空调数量来解决。因此该机房的PUE值较高。在这类机房中,机房风冷式精密空调的能耗是影响该数据中心能耗的关键指标,因其房间结构所限,造成精密空调的效率较低,也影响到数据中心的整体能耗较高。2、 大型数据中心空调系统能耗分析该数据中心总面积约为3000多平方米,2009年初开始正式投入运行。在本项目中空调冷冻水系统采用了“Free Cooling”技术,在过渡季节利用压缩机+自然风冷却运行模式。在冬季则完全利用自然风冷却进行板式换热。在冬季及过渡季节,外界湿球温度小于4时,采用“Free Cooling”运行模式,即冷水机组停止运行,经
9、冷却塔散热后的冷却水和从精密空调来的冷冻水在板式换热器内进行热交换,将机房内的热量带走,此时冷却塔起到冷水机组的作用。在此过程中仅冷却塔的风扇、水泵及精密空调等设备在耗电,冷水机组完全没有耗电。在夏季及过渡季节当外界湿球温度高于4时,“Free Cooling”运行模式已无法满足数据中心制冷需求,此时冷水机组开始制冷,回到传统的空调压缩机制冷模式运行。系统示意图如下图所示:开式冷却塔板式换热器精密空调冷水机组作为数据中心的关键基础设施,冷冻站的设计是最重要环节。本项目设置2个相对独立的制冷机房,每个冷冻机房有2台3500KW(合1000RT)的离心式冷水机组,3用1备。冷冻水供回水温度设定为1
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 数据中心 能耗 分析
限制150内