UPS电源、UPS蓄电池,首选云思达电源,多年机房建设经验、上千家客户见证,值得信赖!
UPS电源
UPS蓄电池

行业新闻

谈数据中心的最优化节能措施

发布时间:2015-05-06    来源:http://www.ysddy.com

一、问题的提出

中国现有数据中心达55万个,大部分耗电严重,急需改造。

中国云产业发展国家规划指出,三年后“云计算”年产值规模将达到2000亿元,其中IaaS市场规模占150亿元。云基础设施大规模建设主要划分为:大型SaaS系统支撑;民营公有云数据机房;高校计算与数据中心;政府机关政务云建设;物联网应用的数据存储(感知与监控)。

数据中心机房多年来一直处于使用机房专用精密空调做为主要制冷设备。随着计算机设备的更新换代,IT设备的功率密度越来越高,机房面积越来越大,机房的数量越来越多,世界能源越来越紧张。在全球能源问题日趋突出的情况下,虽然机房空调制冷能效比有所提高,但所耗费的电能仍然太高,一直困扰着机房运营商和用户。

二、解决问题的途径

如何运用新的技术降低机房制冷所消耗的电能,建设绿色环保机房,已成为机房行业建设者们关注的核心问题。

国内传统数据中心PUE多半在2.0以上,一半以上的电能被空调占用。

拥有一千台服务器的数据中心,年总耗电超出1000万度,而空调就占用500万度。

按目前机房各参数较低标准估算:

服务器耗电(取低值,600w~1500w/台)、工业用电≈1元/度

服务器年耗电量(度)=服务器数×600W×24小时×365天÷1000

经过机房模块化建设机房,一至两年节省电费可新建一个机房。

工业和信息化部以文件的形式“十二五”重点任务?统筹部署绿色数据中心建设。

落实《工业和信息化部发展改革委国土资源部电监会能源局关于数据中心建设布局的指导意见》(工信部联通〔2013〕13号),促进数据中心选址统筹考虑资源和环境因素,积极稳妥引入虚拟化、海量数据存储等云计算新技术,推进资源集约利用,提升节能减排水平;

出台适应新一代绿色数据中心要求的相关标准,优化机房的冷热气流布局,采用精确送风、热源快速冷却等措施,从机房建设、主设备选型等方面降低运营成本,确保新建大型数据中心的PUE值达到1.5以下,力争使改造后数据中心的PUE值下降到2以下。

确保新建数据中心的PUE值在1.2~1.4之间,改造数据中心的PUE值在1.9以下(一般会在原数据中心PUE值基础上递减30%)。

三、具体解决办法

数据中心风冷却的常态节能措施主要采取降低机房散热所消耗的电能,提高数据中心机房的电源使用效率,从而降低IDC的PUE值。

目前主要有7种常态节能措施:

(1)在数据中心机房中建设冷通道,并配置下送风机房专用风冷式精密空调。

(2)在数据中心机房中建设热通道,并配置下送风机房专用风冷式精密空调。

(3)在数据中心机房中建设专用风冷式精密空调冷风和热风管道,对机柜进行全密封强制散热。

(4)在数据中心机房中使用下送风机房专用风冷式精密空调和智能送风机柜,将机房冷风净压仓的冷风直接送入机柜。

(5)在数据中心机房采用大型水冷式机房精密空调。

(6)在数据中心机房建设专用大型水冷式机房精密空调和芯片冷却管道,直接给IT设备芯片散热。

(7)在数据中心机房采用机房风冷式精密空调+大型新风机1:1配置。

从以上任一种类IDC常态节能措施分析来看,都并非最佳方案。具体分析如下:

从冷源方面说,第1、2、3、4种均都是采用机房专用风冷式精密空调作为冷源,第5、6种采用水冷式精密空调,第7种采用风冷式精密空调或自然冷风和水模。

使用风冷式精密空调在节约电能上主要依靠空调的制冷能效比,能效比在3-4之间,节能方面有限;使用水冷式精密空调,能效比最大能达到6,一般在4以上;使用自然风的新风节系统时,最大能效比可达12。

机房设备制冷效果第1、2、5、7种都采用冷风源被动平均分布散热,要求整个机房的发热量布局要非常均衡,否则可能出现机房冷热不均,单相机柜局部过热的问题。

第3种采用主动大风量强制散热,每个机柜热出风管道都配有风机,散热效果好,容易出现过度制冷,风机也需要消耗一定的电能。

第4种采用主要设备机柜进风口配置变速风机,动态给机柜提供冷风,较好解决局部单个机柜过热和机柜内热负荷突然增大的问题,将机房内温度提高到空调的回风温度,但机柜的深度比普通机柜深度要大100㎡,风机需要消耗电能。

第6种采用精准散热,主芯片散热效果好,但电源、硬盘等部件需精准散热不容易实施,需要服务器产商支持。

机房设备散热建设难易成度第1、2、4、7种比较接近,比传统下送风空调系统略微复杂一点,容易实施,成本相差也不大。

第3种,需要对机柜前后门进行密封,实施困难,风管建设比较多,对机房的整体布局有影响,需要非常细致的规划和设计,成本相对要高一些。

第5种,水冷空调的建设门槛较高,比较适用于大型的机房,空调设备比风冷式精密空调要复杂,成本相对要高一些,运行也需要专业维护人员。

第6种,空调部份和第5种一样,但是分支制冷管道方面,会相对复杂很多,要非常了解服务器产商等设备的结构,甚至于需要它们的支持,成本方面相对会高出一部份。

四、结束语

成功设计并建造了低能耗、耐高温、高密集度服务器集群,高承重机架,数据中心外气导入系统和内部气体环流控温系统;实现了以自然冷源替代传统空调设备维持数据机房温湿度,在保证数据中心连续、可靠运行的同时,数据中心的能耗自然就会显著降低。

关键是采用上述技术,在IT设备利用率大幅提高和采用新温控技术的情况下,如何能够使数据中心耗能较传统数据机房整体节省60%左右,使节能减排效果一步到位,这些仍然需要我们不断采用国际前沿技术和设计理念,而最终通过规范数据中心内部气流组织,提高冷量利用率;通过模块化建造方式,实现数据中心规模弹性扩展,减小数据中心初始投资;通过即插即用的机房模块产品,缩短建设周期,提高工程质量;并且最终解决数据中心的运行电力消耗大、数据中心建设周期长、工程质量难以保证等制约国内“云计算”与“大数据”产业发展的重要问题。

上一篇:印尼数据中心行业面临人力资源危机
下一篇:没有了
版权所有:云思达电源 备案号:鲁ICP备14028396号 统一社会信用代码:913701030840414071
北京:010-67115291 济南:0531-58591135
地址:山东省济南市市中区党家镇岳而村70号
济南  青岛  淄博  枣庄  东营  烟台  潍坊  济宁  泰安  威海  日照  滨州  德州  聊城  临沂  菏泽  莱芜
| 行业动态 | 名企动态 | 产品动态 | 会展动态 | 绿色节能 | 政策研究 | 山东ups电源 | 网站地图
在线客服系统