AI 的能源账单:训练一次模型够一个城市用一年、$440 亿投资涌入、核能成为新基建 — 算力背后的环境代价
Stanford HAI 2026 年 AI Index 报告用一组数字泼了盆冷水:AI 模型正在取得突破性的科学和推理成果,但环境代价高到令人不安。
报告披露:一个前沿大模型的单次训练,能耗相当于一个小型城市一天的全部用电量。而 2024-2026 年间,全球 AI 数据中心的电力需求增长了 300%以上。
但这组数字的另一面是:$440 亿正在涌入 AI 能源领域。核裂变初创公司、地热钻探企业、光伏+储能项目——全都在围绕 AI 数据中心重新规划投资节奏。AI 没有「能源危机」,AI 有「能源切换」。
训练一次模型,到底用多少电
Stanford HAI 报告的关键数据点:
- 训练能耗爆炸式增长:2024-2026年间,前沿模型训练的计算量每 12 个月增长约 4-5 倍,对应的电力消耗也在同比例膨胀
- 推理能耗增速更快:一个模型训练只做一次,但推理要做无数次。GPT-5.5 级别的模型每天服务数亿次请求,推理总能耗已超过训练能耗
- 碳排放的地理差异巨大:同一模型在依赖煤电的数据中心训练 vs 在依赖水电/核能的地方训练,碳排放可以差 10 倍以上
这意味着「这个模型多大」不再只是技术问题,也是环境问题。
$440 亿的去向:AI 正在改造能源行业
全球能源投资正在被 AI 需求重塑。几个具体动作:
- 核能复兴:多家 AI 公司和云厂商签约了被重新启用的核电站。原本计划退役的核反应堆因为 AI 数据中心的需求被延期运行甚至升级扩容
- 地热爆发:钻探技术突破让深层地热在更多地区变得经济可行。Google 和 Microsoft 已签下长期地热购电协议,专供 AI 训练集群
- 光伏+储能:AI 数据中心的 24x7 零碳目标驱动着下一代储能技术(铁-空气电池、液态空气储能)的加速商用
这不是巧合。AI 行业的电力需求增长曲线太陡,传统电网扩容完全跟不上。倒逼出一个结果:AI 公司正在变成能源公司。
推理效率提升 vs 使用量反弹
一个常见的乐观论点是:「硬件效率在提升,单位计算量的能耗在下降,所以总体能耗不会涨。」
但这忽略了经济学中最经典的现象——Jevons 悖论:当一种资源的使用效率提高时,它的总消耗量反而会增长,因为效率提升降低了使用成本,刺激了更多需求。
NVIDIA Rubin 平台的推理 Token 成本降 10 倍——这不是在减少能耗,而是在让更多开发者用得起 AI 推理。效率提升 10 倍,使用量可能增长 100 倍。总量还是涨的。
对开发者的意义
- 能效正在成为模型选型的新维度。以后选模型不仅要看准确率和速度,还要看「每百万 Token 的碳排放量」——这和自动驾驶选车要算每公里碳排放一样
- 别在不需要的时候用大模型。一个 27B MoE 能在本地跑的推理,就别调用 400B 大模型的 API。省的不只是钱,也是碳
- 关注绿色数据中心的布局。如果你在训练的模型将来要在某个数据中心长期运行推理,那个数据中心的能源构成会直接影响你的碳足迹报告
结尾
Stanford HAI 2026 报告把 AI 能源问题推到了台前。但它揭示的不是「AI 要完」——而是「AI 在被迫加速能源革命。」
$440 亿涌入清洁能源,退役的核电站被重新启用,地热和光伏签下史上最大的购电协议——这些事情的共同驱动力是 AI 的算力饥渴。
AI 的能源账单确实让人不安。但支付这张账单的方式,可能是 2026 年最被低估的技术投资主题。
