首页 >> 公司新闻 >> 行业新闻 >>数据中心液体冷却技术的“机架经济学”
详细内容

数据中心液体冷却技术的“机架经济学”

今年,ASHRAE发布了一份名为“水冷式服务器——通用设计、组件和流程”的白皮书。目前,包括ASHRAE、绿色网格开放计算项目(OPC)、Open19和美国能源部(DOE)在内的多个组织正在合作,为液体冷却创建框架、指南和规范,其中包括适用于IT设备和机架的外形尺寸、管道、快速断开无滴漏接头、冷却液分配歧管等冷却设备。

 为了应对气候变化,数据中心行业和IT设备制造商在整体能效方面进行了许多改进。Nautilus公司的漂浮式数据中心以及微软公司的水下数据中心(例如Natick项目)通过使用海水进行冷却来宣传其冷却效率。与传统的基于压缩机的机械冷却相比,其排入水中的废热能效更高。但是,即使PUE为1.0x,其热量也会被排到外界环境中,因此水下数据中心仍然无法真正缓解气候变化。

  

  尽管在能源回收方面已经做了一些努力,但要有效地回收IT设备的余热是非常困难或昂贵的。采用液体冷却技术的好处之一在于ASHRAEW4(不超过113°F)和W5(高于113°F)两类IT设备,它们可以在140°F到150°F的温度下输送绝缘流体,这些流体的温度范围为很大一部分能量回收提供了更具成本效益的机会。

  

  随进入下一个十年,建设和运营千兆瓦级园区的超大规模数据中心已成为新常态,这在提高能源效率和利用可持续能源方面处于领先地位。人们相信,液体冷却技术的不断发展和应用范围的扩大将由这些超大规模数据中心运营商成为市场主导,而不仅仅是为了“机架经济学”。

实际上,很难将相对的便利性与“机架和堆叠”相匹配,并为大多数风冷IT设备提供服务。此外,人们已经看到了用于风冷IT设备的冷却系统以及IT设备本身的巨大改进。但是,这种简单性并不是突然发生的。数据中心布局和机柜从从大型主机时代的从顶部到底部气流的前置、固态前端IT机柜发展到当今的热通道/冷通道布局,已经花费了很多年。实际上,即使到上世纪90年代后期,通用IT设备机柜也很少。

  

  液体冷却系统具有多种形式,仍在不断发展,并且具有许多技术优势。但是,由于尺寸等问题在供应商之间不能互换,这也阻碍了一些用户的购买和使用,并且可能无法迅速接受变化。十多年前,当互联网巨头首次开始使用自然冷却技术时,传统的企业数据中心用户对此并不在意。

  理士蓄电池

  传统的数据中心花费多年的时间才超越了ASHRAE的第一版“热指南”(2004年),该指南定义了最初的推荐的68°F至77°F环境范围。2011年,ASHRAE发布了第三版的“热指南”,其中包含了直接在空气中自然冷却信息。它还引入了“允许的”环境包络类别A1-A4,IT设备进气温度高达113°F。自2006年以来,很少有人知道ASHRAE推出的液体冷却指南。

即使在使用数千台1U服务器或刀片式服务器的超大型数据中心环境中,它们的平均功率密度也很少达到或超过每机架10kW到15kW。这在一定程度上受限于风扇功率和散热成本,随着功率密度的增加(冷却系统和内部IT设备风扇),这些成本往往会大幅增加。尽管超大规模数据中心运营商(托管数据中心和互联网云计算服务)建造了大型数据中心设施,但相对于电力和冷却基础设施成本而言,大型建筑外壳成本在资本支出中所占比例相对较低。

  

  液体冷却方案主要集中在更高的功率密度应用(例如每个机架25kW、50kW和100kW)。可在空气冷却设施中以最小的影响或无影响的方式进行部署。例如,在每个机架50kW时,它只需要20个液冷IT设备机架来提供1MW的电力容量。在许多情况下,液冷IT设备不需要机械冷却和冷却水。这节省了冷水机组的资本支出和运营成本,同时减少了80%的机架、PDU和相关设备的成本。

在不同领域,人们对液体冷却技术的认识和兴趣明显增强,这是由各种应用和动机驱动的。50年前,液冷技术最初用于早期的大型机,而现在开始与新的超级计算机和高性能计算(HPC)系统重新融合。尽管如此,IT设备采用的空气冷却技术仍然占据了大多数传统数据中心制冷的主导地位。然而,驱动企业和托管设施市场采用冷却技术的主要因素是功能、性能、成本效益。


电话直呼
在线客服
在线留言
发送邮件
联系我们:
400-909-6367
销售经理
点击这里给我发消息
还可输入字符250(限制字符250)