**核心观点:AI芯片功耗突破物理极限,传统风冷已无法满足散热需求。液冷技术从”可选项”变为”必选项”,2026年有望成为液冷渗透率的拐点之年。**
—
## 一、为什么是现在?—— 算力军备竞赛倒逼散热革命
过去三年,AI芯片的功耗曲线正在以惊人的速度陡升。
英伟达下一代Blackwell架构芯片功耗达到2300W,谷歌TPU v7单芯片功耗也达到980W。对比2018年主流AI芯片约200-300W的功耗水平,**八年时间,单芯片功耗增长近10倍。**
这种量级的热量密度,已经完全超出了空气散热的能力边界。
一个直观的数据是:传统风冷服务器的单机柜功率上限大约在15-20kW,而当前AI训练集群的单机柜功率普遍达到40-60kW,液冷几乎是唯一可行的散热方案。
这不是技术路线之争,而是物理定律的强制约束。
**渗透率数据印证了这一点:** 液冷在数据中心行业的渗透率从2025年的12%,飙升至2026年Q1的28%,预计2027年将突破50%。这意味着,液冷不是”一种选择”,而是行业发展的必然方向。
—
## 二、核心逻辑:三重驱动力共振
**第一重:芯片功耗的不可逆上升**
无论是英伟达、AMD还是谷歌、亚马逊,自研AI芯片的路线图都在朝着更高功耗演进。这是大模型参数量持续扩张的必然代价。功耗下降的逻辑短期内不成立。
**第二重:数据中心规模的指数级扩张**
全球范围内,大型数据中心正在加速落地。仅2025年,全球数据中心建设投资同比增长超过40%。东南亚、中东等新兴市场成为新一轮基建热点,对液冷方案的需求尤为迫切。
**第三重:政策与能效标准的双重驱动**
“双碳”目标下,数据中心的PUE(能效比)监管日趋严格。传统风冷数据中心的PUE约为1.4-1.6,而液冷方案可将PUE压降至1.1以下。在能耗指标成为数据中心立项硬约束的背景下,液冷的性价比正在凸显。
—
## 三、产业链拆解:谁在赚这场散热革命的钱?
液冷服务器产业链可分为三个层级:
### 上游:核心零部件
– **冷液/CDU(冷却液分配单元)**:负责将冷却液输送至服务器,是液冷系统的”心脏”
– **快接接头/管路**:密封性和可靠性要求极高,价值量占比约15%
– **冷却液材料**:氟化液、矿物油等,对材料性能要求苛刻
### 中游:系统集成
– **液冷服务器整机**:将液冷模组与服务器整机集成
– **冷源系统**:冷却塔、 chilled water 系统等
– **机柜级/节点级液冷方案**:根据部署位置不同,方案形态各异
### 下游:终端客户
– 云厂商(亚马逊、微软、谷歌、阿里、腾讯)
– 电信运营商(数据中心业务)
– 政府和大型企业自建算力中心
**近期市场信号:** 圣阳股份连续7个交易日涨停,中标东南亚、中东多个数据中心项目,显示出中国液冷厂商已开始向海外市场规模化输出。
—
## 四、受益标的梳理
| 产业链环节 | 代表公司 | 业务相关度 |
|———–|———|———–|
| 液冷系统集成 | 英维克、申菱环境、佳力图 | 高 |
| 液冷服务器整机 | 浪潮信息、中科曙光 | 高 |
| 温控设备 | 艾默生(施耐德)、维谛技术 | 中 |
| 冷却液材料 | 巨化股份、新宙邦 | 中低 |
| 精密管路/连接器 | 航天电器、中航光电 | 中 |
> **注:** 以上为产业链信息整理,不构成投资建议。投资有风险,决策需审慎。
—
## 五、风险提示
1. **技术路线风险**:当前液冷技术分为冷板式、浸没式、喷淋式等多种路线,技术标准尚未完全统一,不同路线之间存在竞争关系
2. **成本下降不及预期**:液冷系统的初始投资成本仍高于风冷,若成本下降速度慢于预期,可能延缓渗透率提升
3. **竞争格局恶化**:行业高增长吸引大量资本进入,可能导致短期产能过剩和价格战
4. **AI投资周期波动**:若AI大模型投资增速放缓,液冷需求可能受到压制
5. **本文不构成投资建议**,相关数据来源于公开信息整理,读者需自行判断
—
**结语:**
液冷服务器的崛起,本质上是AI算力发展的一面镜子。当芯片功耗的物理极限不断被推高,散热这个”古老”的工程问题反而成为制约行业发展的关键变量。
这不是一个小的技术迭代,而是一场从芯片到数据中心全链条的范式转移。2026年,或许就是这场转移的加速元年。
—
*本文数据来源:公开市场信息整理,数据截至2026年Q1,仅供参考。*