刀片式服务器五种散热方法,风冷液冷谁更佳澳门新葡亰平台游戏

“我们必须改变过去的那种错误观点,就是计算密度越高越好。”Belady说,“要知道,你的计算密度加倍意味着所有的辅助设施、制冷系统容量都要加倍。”

  为刀片服务器散热有五种基本方法。一旦选中了其中一种方法,可以用多种不同产品和方法来具体实施。

  为刀片服务器散热有五种基本方法。一旦选中了其中一种方法,可以用多种不同产品和方法来具体实施。表1对此进行了概述。  

澳门新葡亰平台游戏 1

  要应用刀片服务器,必须选择其中一种方法。这种选择要基于目前设施的制约因素以及用户的需要和喜好。

  应用方法的选择

  了解了现有设施的制约因素并且在用户的各种需求和偏好间进行了适当取舍之后,就可以从前面所述的5种基本方法中做出选择了。刀片服务器的应用方法的选择是基于散热问题的,因为这些问题是实际系统中最主要的制
约因素。确定应用方式后,电力供应问题也就随之确定了。

  影响应用方式的最主要的不确定因素就是刀片服务器的密度问题。许多用户更愿意将刀片服务器以最大密度安装。在现有的数据中心环境中这往往不是一个恰当的选择。实际上大部分刀片服务器都采用模块化的机架结构,可以以较低的密度在机柜中安装。例如,IBM
BladeCenter采用独立的机架,一个机柜中可以安装1到6个刀片不等。虽然降低安装密度看上去没有充分发挥刀片服务器的优势,但实际上系统的成本、可用性和安装速度都有所提升,特别是在现有的数据中心环境中安装刀片服务器的情况。

  目前的许多数据中心设计的功率密度为每个机柜2kW甚至更低。在这样的环境中按每个机柜10-30kW的功率安装刀片服务器时,这些刀片服务器需要消耗大量的电力和散热功能,这与机房最初的设计不成比例。正因为这个原因,在现有数据中心中安装刀片服务器时节省空间通常是没有实际好处的。因此,在现有数据中心分散放置刀片服务器是既实用又划算的。以饱和密度安装刀片服务器通常只是在专为支持高密度方案新建的机房设施中比较划算——安装规模极大或者空间极其狭小。

  因此,刀片服务器安装的核心选择就是刀片服务器安装的分散程度――即每个机柜中安装多少个刀片。用户选择的刀片服务器的品牌和型号可能会制约刀片的分散程度,例如,一些刀片服务器采用独立的机架,这种设备就易于分散安装。而另外一些刀片服务器采用一种底板系统,这种系统使得分散安装不切实际。要了解有关这
个问题的更全面更详细的讨论,参见与具体刀片服务器品牌相关的“APC应用说明”。按照前面所述的五种主要刀片服务器应用方法规划好刀片服务器的应用密度后,其结果如表2。  

澳门新葡亰平台游戏 2

  

澳门新葡亰平台游戏 3

  表2表明,在30种不同的功率密度和应用方法组合中,有大约11种首选组合和7种临界的组合――共18种比较切合实际的应用方式组合。要选择最佳方案,必须把数千种用户的偏好、制约因素和现有的条件等数据与这18种应用方式组合进行比对。这种比对需要进行广泛的分析,遵循许多规则,这一过程可以象软件运算一样进行。但本白皮书中不做详细叙述。

  在开发工具进行这种分析的过程中,我们得出了在实际工作中经过长期观察得出的一些关键的经验:

  如果在房间中需要安装的刀片服务器机柜超过总机柜数量的25%,那么现有的数据中心的电力和散热
系统可能需要进行全面改造。这说明如果安装数量达到这个限度,用户就需要重建一个机房,否则就得把数据中心关闭一段时间进行系统改造。

  如果现有的数据中心计划安装1到5个刀片服务器机柜,那么为了将对数据中心正常运转的影响降到最低,同时降低安装成本,以饱和密度的25%或50%的数量(如每个机柜中最多放置3个机架)进行安装最合适。对大多数数据中心来说,实现非常高的功率密度所需的成本比增加几个机柜位置所需的空
间成本要高得多。

  现在的数据中心一般都是为系统设备整体提供散热和电力供应,辅助散热方案能够以较低的成本提高应用密度,同时达到可预测的散热效果。

  不当做法

  下面列举了数据中心管理人员平时经常会采用的一些方法和做法,但这些方法是有缺陷的,对解决问题帮助不大,而且往往会使情况更糟。

  降低空气温度。用户通常会通过调低机房空调的温度设定来降低机房的空气温度,以解决数据中心中出现的一些热点。这是用户操作最容易也是最差的做法。采取这种做法会降低空调系统的能力,大大增加增湿器的水消耗量,大大降低数据中心的运行效率(结果还会让你帐单上的电费增加)。所有这些都会发生,而问题根本
得不到解决,因为这是气流的问题,而不是空气温度的问题。

  地板格栅。另外一个看似合理的措施就是把垫高地板的通风地砖换成气孔更大的格栅。这种格栅的样子不是我们所熟悉的带孔的地砖,而是有点象火炉篦子。这种方法对于孤立的机柜会有帮助,但会有严重的副作用――特别是大量使用这种地砖的情况下。在数据中心使用这种地砖通常会导致其它区域的气流减少,但更重要的是这些格栅会引起地砖间的气流发生重大的不可预测的变化。这一问题在APC白皮书46“超高密度机柜和刀片服务器的散热策略”中有详细说明。

  机柜顶部风扇。在机柜顶部安装风扇的情况非常普遍――尽管这些风扇对于一个设计完好的IT机柜中一点好处也没有。服务器过热的原因并不在于机柜内部,而是在于服务器前部进入口处的热空气。这些风扇只能是产生
更多的热量,甚至会降低一个设计优良的数据中心的散热能力。许多用户在目的不明确的情况下按照传统的规格确定风扇的规格。也有一些与机柜配套的有效的风扇辅助设备,这些设备在APC白皮书42“解决应用高密度服务器引起的散热问题的十个步骤”中有更详细的说明。

  孤立机柜。有时候用户会把机柜从整排机柜中单列出来,试图在一定范围内降低机柜密度,让通风地砖的气
流能够更多地接触到机柜。但是这种方法使得设备排出的热气在机柜周围回流到服务器的进气口。整体效果并不是很好。更好的方法是让机柜处于热通道和冷通道的安排中,在刀片服务器机柜之间用带隔板的不加负载的机柜隔开,加宽冷通道,使用辅助散热设备和/或热通道密封系统来增强散热性能。

  结论

  在现有数据中心中应用刀片服务器会给数据中心的电力和散热系统带来压力,这种压力不容忽视。有多种方法可以用来给刀片服务器提供电力或散热功能。针对某一具体安装的最好的方法要根据现有设计的制约条件和数据中心管理人员的需求和喜好而定。

  本文概要阐述了涉及刀片服务器应用的相关事宜和选择。还描述了根据现有数据中心的制约因素和用户需求来选择应用方法的流程。

參考:

格罗斯说,随着数据中心内单位面积上的计算密度增加,虽然整体机电成本变化不大,但由于功率密度增加而带来的运营成本却大大增加了。

ILM信息技术总监凯文-克拉克对采用新的刀片服务器后获得的计算能力的提升和节电效果很满意,他说这也符合当今节能环保的大趋势。根据IDC的研究,服务器的平均价格自2004年以来已经下降了18%,而CPU成本下降了70%,达到715美元。但克拉克无法知道,这种计算密度成倍增长持续下去的话,自己的机房到底还能维持多久。“就现有的机房设备而言,如果计算密度加倍的话,从制冷的角度来说,就是难以满足需求的。”他说。

这是可持续发展?

他并不是唯一关注制冷问题的人。40多年来,计算机行业按照摩尔定律规定的进程快速发展,每两年计算密度增加一倍。然而,现在一些工程师和数据中心的设计师们开始怀疑这条道路的可持续性,这条路似乎已走到了尽头。现在面临的困难不只是芯片制造商是否能够克服制造更密集晶体管所面临的技术挑战,还在于现代数据中心要运行和管理如此多的高计算密度的机柜是否经济。

IBM的施密特表示,对于新建的数据中心而言,最大的资金投入不是建筑本身,而是保证公司电力供应的设备成本以及相应的制冷成本。

现在的问题是接下来会发生什么?“未来用电量还要增加怎么办?完全可能因为制冷问题无法解决,导致我们不能在往数据中心中添加任何设备。今天,这个问题已经开始显现出来了。”Schmidt说。

IDC公司在2009年曾调查了1000家数据中心的负责人,接受调查者中21%的人将电力和制冷列为数据中心当前面临的最大挑战。将近一半43%)的人说这是它们运营成本增加的最主要原因,1/3的人说他们经历过因制冷问题或者电力问题导致的服务器宕机。

ILM公司Industrial Light & Magic)最近用目前最热门的IBM
BladeCenter服务器上替换其旧服务器。ILM公司的这一举措将把数据中心单个机柜的电能消耗平均减少140千瓦,节省幅度达到84%。不过,新机柜中的热密度反而更好高了:现在每个机柜用电28千瓦,而之前为24千瓦。这些电能最终都要转换成热能,而这些热能会透过机柜散发到数据中心,最后由数据中心的空调系统带走。

Schmidt认为超过30千瓦的高功率密度计算以后将不得不依赖于水冷。不过其他专家表示,数据中心的相关设备制造商也有可能通过通力合作降低服务器的部署成本,使得服务器不用都挤在机柜中,而是分开摆放,这样机柜中的热密度就不至于越来越高。

Light
Magic)最近用目前最热门的IBM
BladeCenter服务器上替换其旧服务器。ILM公司的这一举措将把数据中心单个机柜的电能消耗平…

计算密度的增加已经让一些大型数据中心的建设项目资金突破了10亿美元大关。
“很多总裁级的人听说新建数据中心要这么高的投入都吓了一跳。”施密特说。

现代数据中心机柜中安装的IT设备越来越多,这不仅意味着机柜用电量大大增加,还意味着后面的所有辅助设施的容量和用电量也相应增加,包括冷却系统、配电设备、UPS和发电机等都会按比例增加。这值得数据中心经理们注意。

惠普副总裁兼关键基础设施服务部门总经理Peter
Gross介绍说,近年来新建的大多数数据中心其设计制冷能力大都为每平方英尺100-200瓦,每个机柜的制冷能力为4千瓦。而一个数据中心的设计制冷能力达到200瓦时才能支持平均5千瓦的机柜热密度。如果对气流流向进行精心设计和专门优化,机房的空气调节系统有可能保证用电量达25千瓦的机柜。而现在ILM公司的数据中心每个机柜用电达到28千瓦,这已经是现有的机房空调系统最高极限了,从事数据中心能效研究的IBM
研究员兼首席工程师Roger
Schmidt说,“ILM是在挑战30千瓦的极限,这将注定是一个相当艰苦的工作。”

Gartner公司的分析师拉克什库马尔说,从电力使用和成本的角度来说,功率密度不可能无休止地增长下去。幸运的是,大多数企业的数据中心机柜的电力消耗暂时还没有达到像ILM这样的水平。Gartner的客户中约有40%其数据中心每个机柜功率为8-9千瓦,当然有些则高达12至15千瓦,不过,功率呈明显上升趋势。

现在,一些企业数据中心和一些对外提供托管服务的IDC开始对用电情况进行监测,并把它作为数据中心的依据之一,而它们在以前只是按照租用空间收费的,根本就没有考虑到底用多少电。有些IDC针对大客户采用根据用电多少决定收费多少,也就是用户先提出最高要用多少电,IDC再据此给其分配相应的空间。

Christian
Belady是微软全球基础服务集团经验最丰富的基础设施架构师,负责设计和管理着微软最近在美国华盛顿州昆西市建立的数据中心。他说,采用高架地板形式的数据中心单位建设成本太高,微软在昆西的数据中心基础设施的建设成本占项目总成本的82%。

新机柜配有84台刀片服务器,每个刀片服务器有2个四核处理器和32GB的内存。这些服务器功能非常强大,与3年前采购的BladeCenter相比,一台服务器的处理能力相当于过去的7台BladeCenter。这家公司主要进行电脑特技设计,这些机柜组成渲染农场用以对图像进行处理。一个新的42U机柜产生的热量相当9个家用烤箱以最高温度工作。为了制冷,ILM数据中心的空调系统几乎是满负荷工作。