《电子技术应用》
您所在的位置:首页 > 嵌入式技术 > 业界动态 > 创新引领英特尔下一代数据中心建设

创新引领英特尔下一代数据中心建设

2010-07-12
作者:英特尔行业及解决方案部资深工程师 张敬

  随着IT技术的不断发展,以及业务与IT日益密切的联系,当前的数据中心正面临着成本、整合、能源管理等一系列挑战,并正在经历着巨大的转变。在下一代数据中心建设方面,英特尔公司持续创新,用多年积极的探索取得了很多经验。
 
行之有效的方法:虚拟化
  采用虚拟化技术,是减少整体IT能耗的好方法。传统的数据中心应用物理服务器平均使用率在10%,采用了虚拟化和云计算以后,数据中心整体的IT的效率能够提高很多。通过上述手段,英特尔与2005年相比,每年数据中心所用的服务器的支出下降了9000万美元,也即高达50%。
 
对于数据中心布局的优化:
  除了虚拟化以外,英特尔对于数据中心的建设还有很多其他探索。比如传统的数据中心的散热使用空调模式,冷热通道没有封闭,该模式通常实现的是2到4个千瓦的每个机架的应用。

  现在开始进入云计算以后,所有的服务器,包括一些刀片式服务器,应用密度变得非常高,所以对提高散热效率最好的方法是采用冷热通道分离,然后同时封闭冷热通道,如果更高一级,则需要更严密的封闭防止冷热空气的混合,比如用烟囱式机柜这样更严密的封闭方式。

 

 进一步降低能耗的非传统方法
  封闭冷热通道以后有会有什么好处?好处在于可以提高整体的空调的效率。英特尔采用了用封闭冷热通道,然后尽可能提高回风温度的方法,实现了冷水机整体能效比系数从0.927提高到1.02,也即提高10%。
 

冷却

冷冻水出水温度  ̊C

7

8

9

10

进水温度

 ̊C

24

制冷量系数

1.029

1.054

1.078

1.103

 

压缩机输入功率系数

0.841

0.837

0.832

0.827

 

能效比调整系数

1.22354

1.25926

1.29567

1.33374

27

制冷量系数

1.015

1.04

1.066

1.091

 

压缩机输入功率系数

0.918

0.914

0.909

0.905

 

能效比调整系数

1.10566

1.13786

1.17272

1.20553

30

制冷量系数

1

1.026

1.052

1.079

 

压缩机输入功率系数

1

0.996

0.993

0.989

 

能效比调整系数

1

1.03012

1.05942

1.091

32

制冷量系数

0.99

1.016

1.043

1.069

 

压缩机输入功率系数

1.068

1.055

1.052

1.048

 

能效比调整系数

0.92697

0.96303

0.99145

1.02004


   在冷凝温度不同的情况下,如果继续提高水,或者每个冷所需要的千瓦时的一个对比,那么从7度到10度的时候,还是有一个10%的提升。到了12度会达到20%的提升,
 
  同时,很好的隔离冷热通道,取得高的回风温度,可以增加服务器的前后端温度差,这能在相同热负荷的情况下,减少风量,同时也可以减少风机风量和转速,风机的功耗它根据的转速比值是一个立方的关系,当风机转速降低一半的时候,它的功耗只相相当于原来的八分之一;提高回风温度,可以随之提高水温,通过加大进出空调机组的温度差,还可以减少水泵的消耗功率,并能极大的延长自然冷却的时间。(但是这个方法并不适于风冷型的散热系统,也即就是直接蒸发式的DX系统,因为这种直接蒸发式的系统,提高回风温度可以适当地提高压缩机的工作效率,但是由于过高的回风温度,可以引起压缩机长时间的高压的运行,反而容易出故障。)
 
采用自然冷却技术:
  在节能方面英特尔还考虑尽可能地利用自然冷源,在全球适合自然冷却的区域,都可以用自然冷源对数据中心进行降温。比如北京,全年平均气温在16°C,适合自然冷却的时间超过40%,今年一直到4月底室外还很冷,这个温度可以给数据中心进行自然冷却。

北京年平均气温分布情况

 利用室外冷空气自然冷却,主要分成两种形式,
A 间接自然冷却方式,
  间接自然冷却方式,还分为几种方式,
  1. 目前常用的是冷冻水机房专用空调系统,配合适用于冬季自然冷却的逆流型大冷却塔(比夏季工况用冷却塔容量要大3-4倍,以便尽可能延长自然冷却的时间),及隔离冷冻水系统及冷却水系统的板式热交换器;
 
  Intel Portland 的数据中心就是采用的这种设计方式。
   
  比如北京,属于典型的温带大陆性气候,冬夏时间长,且全年大部分时间,空气干燥,湿球温度远低于干球温度,理想的可以使用自然降温的市外干球温度全年平均12度以下的时间可以达到45%,如果使用冷却塔加板换的方式,更可以利用市外湿球温度自然冷却,冷却塔设计的容量足够大时,全年自然冷却的时间更可以达到60%以上;
 
    2.就是用带有自然冷却盘管的干冷气乙二醇方式,它的工作原理是在室内机设计了两套盘管,一个盘管是氟利昂的,一套盘管是可以走冷冻水的,这套系统它有什么特点呢?就是由于冷冻水系统它前提,是你的数据中心规模有足够大,你可以有条件去设计冷水机组,螺杆机也好,但是如果你要是数据中心的规模没有那么大的话,你设计这套冷冻水系统对于整个数据中心的投资造价就太高了。
     
  这种方式可以很好的解决这个问题,就是用传统的机房专用空调,传统的水冷式的机房专用空调,在它的蒸发器盘管上,再并一组冷冻水盘管,到了夏天的时候,它是外边的干式冷却器是起到一个冷却水的作用。
 
  到了冬季的时候,它的干冷器就变成产生冷冻水的作用,然后通过两套两通阀来调节水是经过板式热交换器的冷凝器还是经过冷冻水盘管,这样的话也可以实现自然冷却方式,而且这种自然冷却方式它有一个很大的优势在于它可以混合制冷,就是说在你温度降的比如说室外温度比如20度,但是机房回风温度是在26度的时候,也可以进行自然冷却,也就是说我的从室外回来的水,可以先经过冷冻水盘管,然后再进行机械冷却,这样的话每年的自然冷却时间,就拿北京来说,可以达到50%甚至于更高的时间,那么可以对于你数据中心的年平均值来说可以降的很低。(很好的封闭冷热通道,提高回风温度,更可以极大的延长了全年自然冷却的时间)
 
  3. 使用转轮式热交换器的形式,利用转轮内填料的储能功能,让转轮在两个封闭的风道内缓慢旋转,被室外空气冷却的填料冷却室内空气。
   
  Intel协助KPN在欧洲设计世界上第一个利用转轮自然冷却的数据中心,每年可以节省8百万欧元的运行费用。并减少了大量的CO2排放。
 
  按英特尔的经验,采用自然冷却的方式,每年北京大概可以达到40%到60%的时间不需要启动机械制冷。在保障数据中心相对封闭的环境下应用间接的自然冷却,该方式还避免了室外空气的湿度和洁净度对于室内的影响。
 
B .还有一种是直接采用室外新风式的自然冷却,英特尔在美国新墨西哥州建的数据中心,就是用的这种方式:它直接把室外的空气送到室内冷却。这种方式直接利用了室外空气,可以在24°C以下的全部时间进行自然冷却,但是这种室外的空气,含尘量大,需要复杂的除尘处理,并需要专用的空气处理机来保证足够的风量供应,所以也通常不能使用传统的机房专用空调。同时,这种自然冷却还面临着相对湿度很难控制在许可范围内,因此,对服务器的品质会有更高的要求,不适于对数据中心可靠性要求特别高的用户。
   
  无论设计采用何种自然冷却方式,对于用户来说除了可以减少运行成本,减少炭的排放以外,投资都会增加70%到100%,但是它的运营成本相对会比较低。每年TCO增长会低于传统数据中心的建设。按照英特尔现有数据中心建设的经验:如果多投入的钱是在3-5年左右的时间可以通过减少能耗及相关费用的方法收回多投入的话,那么对于数据中心建设,这种投入非常值得的。
  
  这是全球适合做自然冷却数据中心设计的区域分布分析
 
  可以看出在中国,长江以北的地区都可以进行采用自然冷却的方式,来进行未来的数据中心的设计,比如北京,属于典型的温带大陆性气候,冬夏时间长,且全年大部分时间,空气干燥,湿球温度远低于干球温度,理想的可以使用自然降温的市外干球温度全年平均12度以下的时间可以达到45%,如果使用冷却塔加板换的方式,更可以利用市外湿球温度自然冷却,冷却塔设计的容量足够大时,全年自然冷却的时间更可以达到60%以上;所以说应用自然冷却对于英特尔未来的数据中心是一个很好的解决降低能耗的问题。
 
  目前英特尔还做了一些新的探索,比如英特尔在美国设计了一个实验机房模型,这个实验机房模型,英特尔叫鸡舍式的数据中心。鸡舍式的数据中心的设计灵感来自于养鸡舍里面大量的鸡自身散热,使得空气膨胀,空气膨胀以后产生向上的动力,驱动整个的空气在房间里面自然流动,而不需要任何机械的帮助。
 
  比如在服务器机柜中,因为服务器发热量非常大,英特尔把热量收集起来,让进入数据中心的空气被这里热量加热后自然上升,此时只要盖一个足够高的烟囱让热空气往上拔高,带动空气流动,完成散热循环。用这种方式可以在全年里大部分时间,甚至连风无需开启,直接靠服务器产生的热能,由这个热能产生的动力向外自然散热。这种散热方式非常适合与我国的东北大部分地区。在设计过程中,要注意处理好除尘,维持数据中心内部含湿量的最低要求。
 
  (根据ASHARE2008的最新报告,影响数据中心内设备的空气水含量指标,是绝对湿度,而不是以前强调的相对湿度,只要露点温度控制在5.5°C以上,数据中心内的设备都可以保证安全,避免静电的危害。
 
  参见2008 ASHRAE Environmental Guidelines for Datacom Equipment-Expanding the Recommended Environmental Envelope-)
 
配电环节也省电
  最后英特尔在数据中心上面,对于配件还有一些探索,比如英特尔现在正在探索用一些智能技术给服务器供电,因为在数据中心里大量使用UPS供电,UPS的好处是防止掉电,但是坏处是UPS要进行两次转换,每次转换都有能耗。
  
  英特尔采用高压直流的设计,把本来要三次的转换,只用了一次,节省两次转换的能耗。在国内英特尔与一些用户已经在做一些相关的测试,和应用。一些国内的通讯运营商也在做一些相关的实验和测试,甚至于已经制订了数据中心直流供电的标准。
  
  采用高压直流供电可以节省7%左右的配电部分能耗,考虑到这部分能耗还要散热到数据中心内,如果节省下来,将带来综合的节能效果12-15%以上。且能够节省数据中心的占地面积,带来更多场地利用率。这种技术目前面临的主要问题是缺少成熟的产业链支持,建设成本还比较高。
 
  目前支持数据中心运行的两个主要大的基础设施能耗的部分,是空调和配电,英特尔都在采取节能措施和做相应的探索。其实,真正能耗的根源还是在于服务器本身,在未来更长的时间内,英特尔正在做相关的研究探索就是要把服务器的能耗再降低80%!在创新引领之下,未来越来越多的绿色、低碳的数据中心将在业界出现。

本站内容除特别声明的原创文章之外,转载内容只为传递更多信息,并不代表本网站赞同其观点。转载的所有的文章、图片、音/视频文件等资料的版权归版权所有权人所有。本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如涉及作品内容、版权和其它问题,请及时通过电子邮件或电话通知我们,以便迅速采取适当措施,避免给双方造成不必要的经济损失。联系电话:010-82306118;邮箱:aet@chinaaet.com。