您现在的位置是:首页 > 数字化转型 >
英维克科技王铁旺:打造高效绿色数据中心的制冷系统
摘要2015年4月15日,由中国计算机报主办,中国计算机行业协会、中国计算机用户协会、中国信息化推进联盟数据中心专业委员会协办的“2015年第八届中国数据中心大会”在京召开。以下内容是深圳市英维克科技股份有限公司副总经理王铁旺发表的题目为《打造高效绿色数据中心的制冷系统》的主题演讲。...
2015年4月15日,由中国计算机报主办,中国计算机行业协会、中国计算机用户协会、中国信息化推进联盟数据中心专业委员会协办的“2015年第八届中国数据中心大会”在京召开。以下内容是深圳市英维克科技股份有限公司副总经理王铁旺发表的题目为《打造高效绿色数据中心的制冷系统》的主题演讲。
王铁旺:各位专家上午好,我今天跟各位汇报的内容更关乎数据中心的能耗和PUE,这个题目是如何打造一个高效的绿色的数据中心的制冷系统,我是英维克的王铁旺。在上个月的月末,公信部,国家机关事务管理局和能源局联合发布了一个文件叫关于印发国家绿色数据中心试点的方案,这里面数据大家可以关注一下,是一个非常典型的数据。美国的平均的PUE已经到1.9,先进的数据中心到1.2,而我们国内的现在很多数据中心海大于2.2,而且已经有40万个数据中心,两年来机架数超过一千个,现在我们可统计的数据中新新建了255个,这个数字非常庞大,也引起了相关部门的重视。
所以我们看到如何解决一个数据中心的能耗,如何降低PUE,可以毫无疑问的跟大家讲,除了主设备的功耗之外,更重要的是制冷系统。所以我们来看几个国外的数据中心,这个大家可以上网去看,Supernap,这是很值得一提的美国数据中心,他建在沙漠上,在是拉斯维加斯一个很著名的数据中心,他的PUE能够做到1.18,为什么说这个案例,这个地理位置很不好,并不是在一个像我们西北的地区那样一个低温的地区,而当地的温度还是很高的,能够做到这样一个PUE非常的让我们去值得关注。
三年以前雅虎的数据中心做到1.08,当然这个地理位置比较凉,在纽约州,一个鸡舍的数据中心,大家可以看到这个造型跟养鸡场一样,完全的自然冷却。前提是空气质量非常好,跟今天的北京也好,还是中国大部分地区有一个本质性的区别,空气中含硫量非常低的。
我们看谷歌在08年专利!到现在还没有实施,这解决了数据中心所有的困惑问题,一个是供电,基础设施里面的供电这是最大的问题,用玻璃发电机来发电,之后制冷,这会浪费非常大的能耗,这个专利里面用海水制冷。前面低PUE一个案例都做一个事情,如何把数据中心的压缩机停掉,变成自然冷却。我们看到现在跟各位呈现的数字就是跟各位有一概念,我们一个常规数据中心PUE值比较高的数据中心,假如一天电费是十万,里面可能有3.5万消费用再压缩及上,我们说要打造一个绿色数据中心,就是想办法尽量减少压缩机时间。这样情况下还要注意到一个平衡的需求,我们绝对不能为了追求自然冷却,为了追求降低PUE,而导致放弃了数据中心的可靠性,这种案例已经有非常多的这种实际的可以跟各位去呈现的,就是为了自然冷却,然后做了很多方法,最后发现服务器突然再一个时间内大面积宕机,硬盘大面积损坏等等,这个平衡是非常重要的一点。
这里面跟各位看一下需要哪些平衡,首先一点我们看如何追求PUE指标,我们前面讲过,我们三个部委联合印发材料里面说目前的PUE水平在这个区间,目前就是用传统的机房,而且是目前的现状。如果我们能够把冷热通道封闭好,用高效制冷的技术,就可以把PUE降低到二类以下。如果我们进一步提高设备的回风温度,然后能够用间接的自然冷却,就能够到1.2和1.5的区间,这个我觉得是我们现在追求的一个非常现实的目标,就是1.2到1.5,如果我们数据中心的建设者们能够在目前的水平做到这个PUE,我觉得是非常成功的。
如果在想进一步的去降低PUE,达到刚才我们看到的雅虎也好,我们还要进一步提高服务器耐受温度。
这里面讲一个空调系统的概念,就是AEER,本人也是国标起草人,在2010年国标里面我们提出来不光要由原来的EER,我们原来讲空调能效比是室外35度,我们又提出来新的指标就是AEER,就是全年空调的表现,也就是讲还要看室外25、15、5度和零下5度,这样就可以看到一台空调,在全年不同的温度下不同的能效的表现。
所以我们看如果没有做任何的处理的一台普通空调,全年的能效比只有3.48,我们用一台英维客集成自然冷却的空调做例子,我们看零下5度的时候,这台空调的能效比已经高达26.2,全年的能效比高达14.1,这就意味着全年的节能指标会节能75%,这就是对一个数据中心非常大的一个贡献。同时我们在追求PUE的时候,我们看到还要保证这三度温度湿度和洁净度都非常重要,所以我们时刻要想清楚,我们如何在保证这三度的前提下来做节能的设计。
同时我们也看到了有很多,包括在座各位也听到过这样的说法,说冷冻水或者用一个不是很专业的词就是水冷很节能,风冷的不节能,这种说法是错误的。我们针对不同的场地,不同的设计要进行不同的冷却方式的选择,并不是简单讲就是说,我们在无论是哪一个场地,无论什么样的设计,哪种方法更节能,不是的。比如说我们针对中小型的数据中心,这个时候我们有不同的冷却方式的选择,我们爱不同的对安全性,节能性等等进行考量,不同的企业追求的目标不一样,有的会更加注重节能,有的会更加注重安全。但是毫无疑问在中小型数据中心,最适合的方式还是用风冷来集成,直接自然冷却或者间接自然冷却。这是英维克的一种技术,就是双循环,在夏季的时候用红色的压缩机的循环,冬天的时候不需要压缩机,只需要一个制冷机泵,这两个关键器件比较是什么呢比如说一台100千瓦的空调,如果用压缩机的话电功率是25千瓦,在春秋冬季的时候制冷机泵的功耗只有一千瓦,所以我们可以看到它的能耗的比较。
我们现在在中国联通、移动,中石化,中海油,在北方地区超过500套这样空调的应用,也就是说在春秋冬季完全不需要压缩机,就是靠制冷机泵进行制冷循环。我们同时也有室内外机距离很远的场地,这时候可能会用到另外一种节能技术,叫乙二醇双循环,这是中国联通一个非常重要的场地,是中国联通信息化大厦,我们看到屋顶是乙二醇干冷器,春天冬季压缩机停止,通过乙二醇循环把热空气带动,这就体现在泵,而不是压缩机上,这个数据中心PUE会非常低。我们在空气质量很好的地方可以有选择进行直接自然冷却,这个场地就是杭州的地铁,用的是直接自然冷却。
我们看到我们在考虑建设一个低PUE数据中心的时候,在选择空调的时候,就一定要做到空调高能效比,这个时候对他的器件选择大家一定要注意,目前来看很先进的技术,包括这种高能效的压缩机,这种高能效的EC风机,包括这种群控等等这些技术都要体现在它的高能效上面,我们才能得到一个很好的结果。
同时我们看大型数据中心毫无疑问,我们就不可能再去有很多的风冷的冷凝器等等,所以要集中的设置冷站,这时候用冷冻水,包括集成自然冷却就非常的合适。所以我们看到在这是英维克在中国联通华北数据中心,中国移动广东数据中心的一些案例,这都会用到大型的冷冻水。
我们各位经常讲PUE,我们用到冷冻水或者蒸发式冷却液要关注WUE,这个指标在欧洲和美国非常被关注的,这涉及到用水,还有用水管网的需求,还有城市规划,我们看到WUE耗量和IT设备耗水量,一个16兆瓦耗水量一年是四分之一昆明湖的概念,我们数据中心前面用的是火电,每一千瓦还有3.8升耗水,我们数据中心非常依赖水,我们看到水路设计和UPS一样,任何一太水路上水泵故障都有可能带来整个数据中心的瘫痪。所以在数据中心用水的时候要非常慎重,设计要容错能力非常强。
我们看一下综合的设计,各位可能有很多经验,也跟大家分享一下。首先就是送风方式的选择,我们看到现在在选择下送风的时候已经很清楚,地板下面送风不是走线用的。现在各位也可能会看到更多的冷热通道的规划,或者封闭冷通道,或者封闭热通道,我们看到现在新型的数据中心,我们无论是用哪种方式冷却,是常规空调还是夜间空调,会非常关注封闭冷热通道。同时也会用自CFD方法对数据中心进行设计,以获得最佳的气流组织和散热的效果。地板高度也并不是原来一层不变的,比如说300,现在500已经是很低的要求在美国会有更多的案例在地板的高度在一米以上,现在国内这种案例也是越来越多。同时我们看到一个最新的数据中心的模式,刚才共济的专家有讲过模块化数据中心,这个在制冷的角度来讲为什么它是一个非常好的方法,模块化数据中心很好的封闭了冷热通道,而且提高了空调系统的回风温度。提高空调系统的回风温度有什么好处呢?跟在座各位在家里一样,回家夜间空调是25度,你调到27度一样会感觉很凉快,但是电费会有很大变化,我们把回风温度提高的时候会有三方面的显著变化,制冷量会提高,现热比会提高,能效比会提高,而且利用自然冷源时间非常长,原来回风是30度,改成35度,原来在北京十月到三月六个月用自然冷源,变成35度可能会用个月。
我们可以看到模块化数据中心或者集装箱数据中心的构成,我们看到里面很重要的部分包括夜间空调,其他还有高压直流等等,这个部分里面非常良好的解决了回风温度问题,这里面跟各位做一些分享,比如说目前我们参与的提供夜间空调腾讯数据中心,回风温度已经提高到35度,这个热通道是35度,我们看几个照片。这是一个很大的,完全是微模块的数据中心,这个是微模块数据中心的模型,这是现场。现在腾讯做数据中心的时候不是以机架为单位,而是以微模块为单位,描述数据中心不是这里有三千个机架,而是这里有60或者100个微模块,这集成了空调、监控和电池。这是在外面冷通道看,这是站在中建冷孔道照的里面,这是我们的夜间空调。
我们看这张是阿里巴巴的微模块,这也是由我们提供了空调系统,夜间空调包括CDU等等。这个不一样的地方封闭的是热通道,我们看到封闭的是冷孔道,这是通过封闭热通道的方式来获取一个高的回风温度,这个回风温度是36度,这个是我们站在冷孔道来看阿里巴巴的微模块。同时还有更新的方式,这种方式叫PODM,也是阿里巴巴进行的一种微模块的一种尝试,它的制冷系统大家可以看一下,这是比较新的方式,是在机柜的顶部有制冷系统,然后这是热通道,这个热通道的气流组织,从这个地方回来,形成一个完整的微模块。我们看这是现场的一些图,这个就是在机架的顶部,这是我们在热通道拍到上面的空调系统。
这个是冷水分布单元,这是末端。随着我们在看到整个的云计算的变化,但实际上在很多的数据中心的控制的末端,也在发生很多的变化。比如说原来我们在空调系统在去温度的时候,就是取热通道或者是机房的回风温度,但是我们现在在很多项目里面,已经开始做到哪一点呢?空调系统直接取芯片的温度,比如说我们已经跟阿里巴巴、腾讯、因特尔合作,直接读取芯片的温度,大家知道手机和电脑笔记本可以直接读取芯片温度的,我们现在也做到了这一点,直接读取数据中心服务器芯片温度,来提供最匹配的制冷量和风量,这个精细管理可以更有效的降低一个数据中心的PUE。
同时也有更多用自然冷源的方法,比如说两套盘管,分别走不同的冷源。大家看到这个系统图,是我们已经运行了三年的,在四川联通用的模块化数据中心,我们看这个顶部就是制冷系统,里面有两套盘管,夏季的时候也用压缩机,冬季的时候用干冷器,用这里乙二醇来制冷,不用压缩机。
我们同时看到很多对安全性要求非常强的场地,比如说银行系统不允许水进机房的,这时候还要获得高效制冷系统的时候,我们还有一种方法叫做冷源冷水转换式的夜间空调,把冷水转化成冷煤,这个已经在上海银联数据中心,包括中国移动的一些数据中心热点解决方案里面得到大规模的应用。
各位也可能会再问一个问题,刚才讲的都是中大型的数据中心,对于中小企业有什么样的方法,我们这一次也特意从深圳带来了一个微模块机柜,大家中午的时候或者是茶歇的时候欢迎各位去我们展台参观,就在外面,是一个微模块,就是这个机组,这叫微模块的机柜的方案。这个方案就非常适合中小企业,这也是一个对原有数据中心的一种改变,原有各位是一个中小企业,一定要做一个小的数据中心,把地板铺好,把空调做好,然后想办法做UPS等等,现在就很容易进行快速的部署,甚至这个微模块就不需要放在机房里面了,就放在比如说你的楼道里面或者是你的有一个小的场地都OK已经在银行的网点等等已经有大面积的使用。这个系统里面大家可以看一下,他就集成了高效的夜间空调,效率非常高,是一个变频的机组,包括消防,包括监控,PDU,传感器等等,也就是讲是一个小型的数据中心,叫微模块机柜。而且它是可扩展的,这一次我们跟各位呈现的一带一,还可以一带二,或者一带四或者三带六等等,有非常多的组合,可以快速的部署一个数据中心。这个大家看到的是建行支行,里面用的就是微模块,两台夜间空调里面带了八个机柜,这个是在济南华电,这个大家看到这个机柜就放在走廊里面,没有放在机房里面,这个也已经运行了三年,大家看到戴尔服务器在里面,这个是室外机,我们跟大楼连室外机场地都没有,就放到一个小的夹间里面就OK了,这是北京一个期货交易所营业厅,就放在营业厅里面,因为这个噪音非常低,没有单独机房。这是某省公安厅系统,已经在各个派出所里面广泛使用,甚至还有一个系统可以把微模块机柜放在草地上,就是户外的微模块机柜,甚至不需要室内空间。
总结来看数据中心的温控目前变化的速度是在提升的,整个行业的变化也都存在,所以我们看原来是把一个机房的热量带走,我们现在开始关注把机柜热量带走,再下一步把服务器热量带走,再最后可以精细把芯片热量带走,我们一直也做自己努力,我们是一个国家级高新企业,在深圳和苏州有两个生产基地,在全球都有高效的自然冷却系统应用,我们07年进入欧洲,2011年成为联通等等供应商,2012年进入美国和日本市场,2013年开始为腾讯微模块提供大量的空调系统和夜间空调,包括银联,包括中国联通最大的IDC等等,2014年又为阿里巴巴的数据中心提供了非常多的空调系统,包括这种高效的夜间空调,CDU等等。我们也在数据中心的高效制冷和自然冷却方面有很多自己的实践,也希望能够和在座的各位专家、嘉宾有更多时间去分享,一起来把这个数据中心的PUE降下来,打造一个真正好的绿色数据中心的系统。感谢各位,非常感谢。
(本文不涉密)
责任编辑:
下一篇:拥抱内部社交软件的三大理由