加入收藏 | 设为首页 | 会员中心 | 我要投稿 西安站长网 (https://www.029zz.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长百科 > 正文

高密度主机托管和企业数据中心的冷却系统考虑因素

发布时间:2018-07-11 12:31:31 所属栏目:站长百科 来源:站长网
导读:副标题#e# 当前,在计算机技术领域的最新进展以及高性能CPU和GPU的日益普及使得企业用户们能够在计算机分析方面达到新的高度,包括使用大数据分析、人工智能、高频交易、石油和天然气研究以及网络规模化商业模式。对于这些技术普及采用的快速增长已经超过了

在采用片上冷却系统时,还需要考虑数据中心内部实际基础设施的需求,以及更重要的服务器机架内部的需求所提出其他方面的挑战。为了使温水冷却到芯片水平,必须通过许多小软管将水输送到机架内部,然后这些软管又将直接输送到芯片热交换器/泵。虽然这些安装的规模很小,但是需要IT人员来管理装满大量软管的机架背面,以及用于连接冷却系统入口和出水的分配头。

直接芯片冷却系统直接连接到HPC集群的主板,设计或多或少是永久性的。通常根据需求或预算,HPC群集平均每3到5年需要进行更新(或替换)。考虑到这一点,如果在托管环境中使用,则每次实施更新或客户端重定位都需要为冷却系统基础结构的更改准备好设施规划。

直接芯片冷却在高效冷却当今高密度计算机集群方面取得了显着进步,但是一旦进入更大的计算机房或建筑物环境,就必须考虑整体的建筑性能,基础设施成本影响和在其整个使用寿命周期内总的投资回报率了。

4

图二:直接片上冷却方案

3、具备密封容器系统的机架行级冷却方案

在2000年代初,冷却开始向数据中心内的服务器机架靠近,主要是由于服务器热负荷的快速增加,以及传统CRAC和CRAH空调系统无法推动足够的冷空气来满足服务器的冷却散热需求。早期推出的方案之一便是机架行级冷却(In-Row Cooler)技术,其是传统CRAC和CRAH的变体,但重新设计了不同的外形,夹在相邻的服务器机架之间。

机架行级冷却方案为较高密度服务器机架提供了却管理冷能力,只需将冷却部件放置在靠近热源的位置即可。来自热通道(服务器机架后部)的暖空气通过机架行级冷却器吸入,由冷水或制冷剂冷却,然后排放到冷通道(服务器机架前部)。通常,服务器的热负荷决定了两种最常用的机架行内冷却器的尺寸分别为12英寸宽或24英寸宽。机架密度越高,服务器机架和行内冷却器之间的比例就越接近。每台5x服务器机架的低密度数据中心可以使用1x 12英寸规格的机架行内冷却器,而对于其他服务器机架的更高密度系统,可能需要1x 24英寸规格的机架行内冷却器。

尽管将机架行内冷却器定位在服务器机架附近可以实现冷却效率的提高,但是曾经占据数据中心周边空间的大型CRAC或CRAH单元则需要被转移到服务器机架之间的可能更有价值的空间。

对于主机托管设施而言,其机架空间与企业的净利润直接相关,因此这种进行成本的权衡变得至关重要。许多大型企业和托管设施还在可重复的网格模式上加载空白区域,从而允许在IT和基础设施设计布局上逐步扩展和统一。如果按规模化部署,可以以这种方式管理机架行内的系统,但是如果用作高密度区域的补充冷却技术,或者在集合的情况下用于支持本地化高密度客户端的冷却,则机架行内系统可能会破坏整个空白区域的一致性,并为负责部署的MEP站点团队带来额外的挑战。

4

图三:具有热通道密封遏制方案的行内冷却器

密封遏制系统,无论其是热通道还是冷通道,都为行内冷却策略增添了另一种巧妙的方案。热通道密封系统最常用于热通道,旨在将热空气夹在服务器机架后部的过道中。关于设施基础设施所面临的挑战的讨论将被排除在该讨论之外,许多企业已成功克服这些挑战。与本文所探讨的更相关的是热通道密封系统对更高密度IT设备的性能影响,这是经常被企业数据中心管理人员们所疏忽的重大问题。

(编辑:西安站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读