10兆瓦数据中心年省3000万!液冷的经济账怎么算?
10兆瓦数据中心年省3000万!液冷的经济账怎么算?
一个10兆瓦的数据中心,一年电费是多少?
答案是——用风冷,要花将近1个亿。
但如果换成液冷,这笔钱可以省下2000万到3000万。
数据说明:年节省金额的前提是东部高电价地区(如浙江、广东,工业电价约0.8-0.9元/度)。在西部低价电地区,节省金额会相应减少,但节能比例(30%-40%)不变,投资逻辑依然成立。
不是理论推演,是实测数据。阿里云张北智算中心、曙光数创C8000液冷项目、华为全液冷机房……行业里已经有太多案例证明了这一点。
液冷替代风冷,节能30%-40%,2-3年回本。
今天咱们就来拆解这笔账,看看液冷到底是怎么省钱的。
一、先弄懂PUE这个"体检报告"
在说液冷之前,得先搞清楚一个关键指标——PUE。
你可以把数据中心想象成一家大型算力工厂。PUE的算法很简单:数据中心总耗电 ÷ IT设备耗电。这个比值越接近1,说明工厂的能源几乎全用在"生产算力"上,浪费在空调、照明等"后勤"上的电越少。
有意思的是,2023年我国数据中心的平均PUE是1.48。这意味着什么?每消耗100度电,只有约67度真正用于计算,剩下的33度都用来散热和维持运行了。
这33度电里,制冷系统是最大的"电老虎",能吃掉总电量的30%-40%。换句话说,数据中心之所以是"电老虎",核心问题就出在散热上。
二、液冷凭什么比风冷省30%-40%?
传统风冷散热,就像在一个闷热的房间里给每个工位装小风扇,同时开动中央空调给整个房间降温。空气是热的不良导体,导热效率极低,为了带走热量,只能依赖大功率空调持续制冷。
液冷的思路完全不同。它不再用空气"隔空传热",而是用冷却液直接"贴身"把热带走。这带来了两个物理层面的根本优势:
导热能力是空气的1000倍以上,热量传递速度极快。
比热容是空气的3000倍,意味着同样体积的液体,能"吞下"的热量远超空气。
具体能省多少?我找到了一张对比表格:
| 数据中心类型 | PUE值 | 制冷系统能耗占比 | 年电费(10MW,东部高电价) |
|---|---|---|---|
| 传统风冷 | 1.4-1.5 | 30%-40% | 约1亿元 |
| 冷板式液冷 | 1.1-1.2 | 15%-20% | 约7500万元 |
| 两相液冷 | 1.04-1.1 | <10% | 约7000万元 |
年省2000-3000万,就是这么来的。
三、三招"击穿"高PUE
液冷是怎么把PUE从1.5压到1.04的?核心在于三招:
第一招:干掉"电老虎"
液冷系统(尤其是两相液冷)通过液体高效换热,可以完全取代或大幅减少对传统机房精密空调的依赖。制冷系统的能耗占比,从风冷时代的30%-40%,被压缩到10%以内。
这是PUE能接近1的核心原因。
第二招:让服务器风扇"下岗"
风冷服务器内部,高速旋转的风扇本身就要消耗大量电力,约占IT设备功耗的10%-15%。
在两相液冷中,服务器产生的热量通过冷却液相变带走,内部风扇可以大幅降速甚至完全关闭。有个细节值得注意:这不仅省电,还把机房噪音从70分贝的轰鸣降到了35分贝的图书馆环境。
第三招:让芯片更"冷静"
芯片怕热,这个大家应该都有体会。温度每升高10℃,可靠性下降50%,还会触发"热节流"保护,导致性能下降超过30%。
液冷能实现芯片表面温差≤3℃的精准控温,让每一瓦电力都稳定、高效地转化为有效算力。
四、两种主流方案,怎么选?
目前液冷主要有两大技术路径,适用于不同场景:
冷板式液冷("冰敷"):给CPU、GPU贴上装有循环液体的金属冷板。它对现有服务器改造小,部署简便,是当前产业化应用最广的方案,适合现有数据中心升级和中大规模智算中心。像冷泉能控这样的国内专业液冷厂商,已经能提供从冷板设计到 CDU(冷却分配单元)的全链条解决方案。
两相液冷("沸腾散热"):基于相变原理,冷却液在吸收热量后发生沸腾,蒸汽带走大量潜热。这种方案散热效率更高,能将PUE压至1.04-1.1,单机柜功率密度可达100kW以上,是应对AI训练集群等高密度算力场景的利器。
说实话,这两种方案各有适用场景。对于已经建好的数据中心,冷板式改造成本更低、周期更短;对于新建的高密度智算中心,两相液冷的长期收益更高。
值得一提的是,近年来国产液冷技术进步很快。在冷板式液冷领域,冷泉能控等厂商已经实现了从冷却液、CDU到机柜的全流程国产化;在两相液冷领域,中科曙光等企业的方案也已达到国际领先水平。供应链的成熟,让液冷的部署成本和交付周期都有了明显改善。
五、这笔账,2-3年就能回本
说了这么多省钱的事,问题来了:液冷系统比风冷贵,多花的钱多久能赚回来?
行业数据显示,液冷初期投资增加约10%(主要在机柜层面),但年省电费20%以上。根据浪潮信息的测算,GPU场景1年回本,通用场景2.28年回本。20年生命周期内,5000kW负载数据中心可省电费8760万元。
为什么能这么快?因为液冷改变的不仅是电费,而是整个成本结构:
运维成本骤降:风冷需要频繁清理灰尘、维护空调系统;两相液冷的冷却系统高度集成,维护需求减少80%以上。
设备寿命大幅延长:服务器工作在稳定的低温环境中,隔绝了高温、灰尘和湿气,服务器寿命可提升90%以上。
空间成本节省:液冷无需庞大风道,在提供同等算力时,机房占地面积可节省85%。
如果你正在选型,可以找冷泉能控这样的专业厂商做一份ROI测算——基本上,2-3年的回本周期是有保障的。
六、什么场景换液冷最划算?
不是所有数据中心都需要立刻all in液冷。根据单机柜功率,液冷的经济性截然不同:
传统数据中心(单机柜10-30kW):液冷可节省约15%-20%的电费。其核心驱动力正从"省钱"转向"合规"——国家要求新建数据中心PUE需低于1.3,风冷已无法达标。
AI智算中心(单机柜60kW以上):这是液冷的"主战场"。当单机柜功率突破60kW,风冷已达物理极限。英伟达、谷歌等巨头已强制要求其高端AI芯片必须采用液冷散热。
边缘数据中心:液冷的优势体现在"隐性经济性"。噪音可低至43dB,无需复杂风道,非常适合部署在楼宇、园区等敏感环境。
七、液冷的价值,不止于省电
液冷的优势不止于当下省电,它重构了数据中心整个生命周期的价值。
空间就是金钱:液冷机房的占地面积可以节省85%以上,同等面积下能部署的算力翻了几倍。润泽科技在香港的沙岭数据园区,采用液冷实现单机柜功率70kW,在有限土地内挤出了巨大算力。
废热变资源:风冷吹出的热风是纯粹的废品。而液冷系统中,被加热到50-60℃的冷却液,可以接入城市供暖系统。有个案例挺有意思——在重庆西部科学城,某数据中心用余热覆盖了周边13万平方米建筑的冬季采暖,将曾经的"废热"变成了可销售的"产品"。
写在最后
液冷替代风冷,绝非简单的技术升级。它是一次应对AI算力爆发的必然选择。
当单颗芯片的功耗朝着2000瓦迈进,当万卡集群成为常态,当国家政策要求新建数据中心PUE必须低于1.3甚至1.25——风冷已触达天花板,而液冷,正是托起下一代算力基础设施的基石。
对于10兆瓦以上的大型智算中心,液冷意味着每年数千万乃至上亿的直接成本节约。对于整个行业,风冷退场、液冷登台,这不是趋势判断,而是时间问题。
这道经济账,你算清楚了吗?
觉得有用,点个「在看」让更多同行看到
数据来源:本文数据综合自中国信通院、浪潮信息、中科曙光、阿里云公开技术白皮书,以及工信部等权威部门发布的相关政策文件。核心数据(PUE、节能比例、投资回报周期)均来自多源交叉验证。
