两相液冷:已从散热迈向控温
常见问题(FAQ)
Q:两相液冷使用什么工质?安全吗?
A:使用介电氟化液,不导电、不腐蚀、无水管路泄漏风险,符合数据中心安全规范。
Q:两相液冷能支持多高的机柜功率?
A:目前可支持单机柜80-120kW,设计上可向上扩展至150kW以上。
Q:是否真的能做到“免维护”?
A:工质封闭循环,泵组寿命可达10年以上,但建议定期检查传感器与管路接口(通常3-5年一次)。
摘要
AI算力爆发,机柜功率已突破120kW,风冷退场,单相液冷也正逼近能力边界。热管理已从“配套系统”升级为算力兑现的核心基础设施。行业的真正挑战不再是“能不能散热”,而是“能不能稳住温度”——±5℃的波动即可导致15%-30%的性能损失。两相液冷利用相变潜热原理,实现±1.5℃以内的精准控温,显著消除热降频风险。从新建智算中心到存量机房改造,两相液冷让每一瓦算力都释放得更稳、更省、更可控。
正文
一、行业正在经历一场静默的热革命
1.AI算力爆发,机柜功率突破120kW已成常态:据DCD与Network World预测,2026年全球AI专用机柜平均功率将突破120kW,直接改写了数据中心基础设施设计逻辑。
2.风冷退场,单相液冷也正逼近能力边界:单相液冷流量需求大、泵耗高、温度波动明显,尤其在负载频繁变化的AI训练场景下,极易引发芯片热降频。
3.热管理从“配套系统”升级为“算力兑现的关键基础设施”:客户更在意“能不能长期稳定满载运行”,热管理决定算力利用率、PUE和ROI。
二、行业面临的,从来不是“有没有冷却”,而是“能不能控温”
1.高密度机柜最怕的不是热量大,而是温度不稳:单相液冷难以抑制温度波动,±5℃的变化就可能导致频率自动下调,性能损失高达15%-30%。
2.存量机房改造困局:电力容量充足、空间尚未饱和,但原始散热设计落后,无法承载更高密度部署。
3.节能诉求已从“省电费”进化到“优化TCO与算力成本”:客户需要的是一套可持续优化的运行体系。
三、真正的技术跃迁,来自“相变潜热”与“系统级控温”的结合
1.两相液冷的本质优势:用“潜热”替代“显热”,同等热负荷下流量需求仅为单相方案的1/5~1/9,大幅降低泵组功耗。
2.精准控温:实现芯片级±1.5℃以内温度调节,无论200W还是600W的瞬时功耗波动,都能依靠气化量自我调节。
3.航天级验证:该技术起源于航天器热控系统,经过南京航空航天大学研发中心多年转化,已成功适配数据中心复杂工况,连续运行超半年无故障(内部压力测试)。
四、面向未来的热管理,必须是“可管、可控、可运营”的系统能力
·新建与改造双线并行:新建支持120kW+机柜,pPUE局部可达1.05-1.10;存量改造可盘活30%-50%未被利用的算力资源。
·硬件+软件协同:接入物联网SaaS平台,实现温度、流量、能耗的实时监测与AI寻优控制,从被动维修走向预测性运维。
·最终交付的不是设备,而是“稳定的算力输出能力”:热降频减少90%以上,服务器寿命延长2年以上,冷却能耗下降40%,年均PUE稳定在1.12以下。
当单相液冷开始接近能力边界,航天级两相液冷用精准控温接住下一代高密度算力——不止降温,更能稳算力、降能耗、可运营。
免责声明:本文数据基于塔能内部测试及典型项目模拟,实际效果因人而异。
