可选项必选项的转变

就在几年前,液冷还是数据中心领域的一个小众话题”——只有超算中心、科研机构会用,普通数据中心觉得风冷挺好,没必要折腾

但今天,情况已经完全改变。液冷正在从可选项变成必选项,甚至可以说:未来3-5年新建的大型数据中心,如果不考虑液冷,可能根本没法交付。

为什么会发生这个转变?背后有三个不可逆转的趋势。

一、趋势一:芯片功耗已突破风冷极限

1.1 看看这几年AI芯片的功耗变化:

芯片型号规格对比表

芯片型号

发布年份

典型功耗

相比上一代

NVIDIA V100

2017

250W

-

NVIDIA A100

2020

300W

+20%

NVIDIA H100

2022

700W

+133%

NVIDIA B200

2024

1000W+

+43%

AMD MI355

2025

1400W

+133%

 

这意味着一个标准机柜(通常放4-8台服务器)的功耗:

· 2017年:2-3kW

· 2020年:5-8kW

· 2022年:15-20kW

· 2025年:30-50kW(高密场景可达100kW+

1.2 风冷的极限在哪里?

传统风冷(空调+风扇)的极限,业界公认是单柜15-20kW。超过这个值,就会出现:

· 局部热点:芯片表面温度不均匀,有些地方热得烫手

· 气流短路:冷风还没到发热点就被吸走了

· 能耗爆炸:风扇转速拉满,噪音大、耗电高

· 效果衰减:再加大空调,温度也降不下来

一句话:风冷的物理极限已经到了。想把1000W的芯片用风冷压住,就像用电风扇给烧水壶降温——不是不行,是效率太低。

趋势二:政策强制要求PUE降低

数据中心PUE政策要求表

时间

政策要求

发布机构

2021年

新建大型数据中心PUE≤1.3

国家发改委

2023年

国家枢纽节点PUE≤1.25

国家发改委

2025年

新建及改扩建大型数据中心PUE≤1.25

工信部

2025年

国家枢纽节点PUE力争≤1.2

国家发改委

趋势三:算力密度和空间成本的博弈

3.1 土地和空间越来越贵

一线城市的数据中心,每平米造价在2-3万元以上。同样的空间,能放多少算力,直接决定了投资回报率。

散热方式性能对比表

散热方式

典型单柜功率

同等算力所需机柜数

同等算力所需空间

传统风冷

5-8kW

10

基准

优化风冷

10-15kW

5-6

40%

冷板式液冷

20-30kW

2-3

70%

浸没式液冷

40-60kW

1-1.5

85%

 

3.2 老旧机房改造需求爆发

大量存量机房正面临同一个困境:

· 建设时按5-8kW/柜设计

· 现在想加AI服务器,单柜功率直奔30kW

· 空调开到最大,温度照样压不住

· 不改,业务没法开展;改风冷,效果有限

液冷改造,是这些机房唯一的出路。

二、液冷到底好在哪?用数据说话

散热效率

风冷与液冷系统性能对比表

指标

风冷

液冷

变化

CPU温度

85-95℃

65-75℃

降低20-30℃

温度均匀性

±5-8℃

±1-2℃

更均匀

噪音

75-85分贝

35分贝以下

图书馆级别

单柜功率

10-15kW

30-60kW

提升3-5倍

节能效果

风冷与液冷性能对比表

指标

风冷

液冷

变化

PUE

1.5-2.0

1.05-1.15

降低30-40%

制冷系统能耗

30-40%

10-15%

60%

全年电费

基准

30-50%

显著

其他隐性收益

· 设备寿命延长:恒温运行,电子元件老化慢,寿命延长2-3

· 可靠性提升:无风扇、无振动,硬盘等机械部件故障率降低

· 空间节省:同样算力,占地减少70-80%

· 环境友好:低噪音,员工舒服;低能耗,碳排放少

三、液冷不是“要不要选”,而是“什么时候选”

5.1 谁现在就必须选?

数据中心场景及选择原因

场景

原因

新建大型数据中心

PUE要求1.25以下,风冷难达标

AI算力中心

单柜功率30kW+,风冷根本压不住

一线城市数据中心

土地贵,必须极致利用空间

老旧机房改造

想加AI服务器,不改没法用

 5.2 谁可以再等等?

机房冷却建议表

场景

建议

小型机房(单柜<10kW)

可继续用风冷

非核心业务

可逐步替换

预算极度紧张

可先用风冷,预留液冷接口

 

数据中心的浸没式液冷散热,大势所趋

创始人李宁20年化工经验,专注电子氟化液应用研究。如果您正在考虑液冷方案,欢迎交流。