首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

SC19:我们再次见到了两相浸入式液冷方案

在去年的超算大会上,我们见到了许多浸入式散热方案。没想到在今年的超算大会上,我们又看到了更进一步的展示。所谓“两相浸入式液体冷却(2PILC)”系统,主要包含了一台几乎没有主动式散热的服务器,并将其完全浸没在低沸点的液体中 —— 通常是与硅直接接触的有机化合物,而不是水或油。

(题图 viaAnandTech)

芯片在使用时发热,然后导致周围的散热液沸腾。常见的有 3M Novec of Fluorinert 的变体(沸点在 59 ℃ 左右)。

液体气化过程会上升并带走热量,使得散热液在两种相态之间进行对流、冷凝(通过冷却板或水管)、循环。

这些非离子液体不会导电、粘度和相对适中,能够有效促进自然的对流。如果芯片的热设计功耗太高,亦可加入促进对流的主动式散热方案。

厂家显然希望让这套方案在服务器或高性能 PC 领域实现广泛的运用,在将所有配件保持在合理温度下的同时,还支持超密集的设计。

比如外媒 AnandTech 报道过的 TMGcore 的 OTTO 系统,就采用了 2PILC 技术。其能够在 16 平方英尺(约 1.5 ㎡)的空间内,放置高达 60kW 的数据中心单元。

客户只需为设备供电、供水和网络连接,在需要维护的时候,这套方案还支持自动取放功能。该公司称,在受控环境下,2PILC 技术能够有效延长硬件的使用寿命。

去年,这项技术的主要方向之一,是用于加密系统或超密集协处理器。不过在 SC19 上,我们并没有见到那么多,更别提任何面向 5G 边缘计算的 2PILC 服务器了。

有趣的是,一些组件公司(比如 VRM 制造商),正在验证其用于 2PILC 环境的硬件。通常数据中心会根据电源使用效率(PUE)来讨论能效,比如 1.50 就意味着耗电 1.5 兆瓦,实际功效 1 兆瓦。

标准的风冷数据中心,其 PUE 在 1.3 ~ 1.5 之间。一些专有的风冷数据中心,可能会低至 1.07 。液冷的数据中心,也在 1.05 ~ 1.10 PUE 左右(具体取决于不同的构造)。

我们今年在超算环境中见到的独立 2PILC 单元的最低 PUE 值为 1.028,但若成本仅为标准风冷机架的 1 / 10,相信还是有不少企业愿意去采用的。

—The End—

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191130A08Y0K00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券