AI算力全解析:定义、数据与产业现状
人工智能的每一回实现跨越式进展,都跟算力的产生转变紧密相关,2012年,于竞赛里凭借超出10个百分点的优势获得冠军,其背后是两块消费级GPU所提供的大约4.7 也就是每秒4.7万亿次浮点运算的训练能力,到了2025年,训练一个具备万亿参数级别的大模型,所需要的算力已然超过10^25 FLOPS。依据在2024年发布的分析报告来看,高级AI模型训练所使用的算力,每3.4个月就会翻一番,自2012年开始直至如今,累计增长幅度超过了30万倍,然而摩尔定律所描述的晶体管密度增长周期大概是18个月。这样的一个差距表明,仅仅依靠传统芯片制程微缩,已然没办法满足AI对于计算能力的爆炸式需求,“AI算力”自身正从幕后的技术术语迈向公众视野的核心。
什么是AI算力?
具备计算能力的算力,是对计算系统每秒能够执行多少回基本运算的一种测量,在人工智能范畴里,特别是深度学习当中,最为重点的运算种类是浮点数运算,所以单位一般采用FLOPS( Point Per ,每秒浮点运算次数)。其中,常用的量级覆盖:(10^6),(10^9),(10^12),(10^15,,(与(10^18)乃至于(10^21)。就像,训练1750亿参数的GPT - 3模型,官方论文所披露的总算力消耗大概是3.14×10^23 FLOPS,也就是314 。以之为参照,有一台超级计算机,它每秒能够执行1 (也就是1000万亿次),这般情况下,它要持续不间断地运行大约10年,才可以完成同等的计算量。
从CPU到GPU再到专用芯片
AI算法早期(像决策树、支持向量机这类)主要依靠CPU去开展串行计算。2012年,取得突破,证实了GPU于并行处理矩阵乘法方面具备压倒性优势,一块主流GPU的浮点运算能力相较于同期CPU高出两个数量级。从那以后,GPU成了AI训练的事实标准。2016年,谷歌发布了第一代TPU(张量处理单元),是专门为神经网络推理而设计,其INT8算力达到23 。接着的每一代产品都不断抬高算力上限,在2020年,一款高端AI加速卡在FP16精度时的算力抵达312 ,到了2024年,新一代产品的FP8算力冲破20 ,也就是20000 ,相较于四年前提升程度超过64倍。与此同时,FPGA,也即现场可编程门阵列,和ASIC,也就是专用集成电路,在特定场景里寻获到了位置。比如,字节跳动部署了自研的推荐系统推理芯片,百度同样部署了自研的推荐系统推理芯片,其能效比相较于通用GPU提升三至五倍。
全球AI算力规模与分布
也就是 IDC,在 2025 年 3 月发布了《全球人工智能计算力指数报告》,在 2024 年时,全球 AI 服务器出货量达到了 167 万台,那一时期的市场规模为 1220 亿美元。以 FP16 精度去折算,全球已经部署的 AI 加速计算总算力大概是 350 。这里面,用来进行大模型训练的计算资源占比大约是 60%,推理任务方面约占 35%,剩下的 5%用于传统机器学习以及科学计算。由区域分布状况进行查看,美国约莫拥有180 ,中国是280 ,欧洲跟亚太其他地区两者加起来大概是90 。要加以说明的是,中国的算力统计涵盖了超算中心里能够用于AI计算的份额以及诸多智算中心项目。截止到2025年年底,中国已经建成并且投入运营的智算中心超过了50个,其中单中心算力超过100 的有12个。
训练与推理:算力的两种消耗模式
去训练一个有着千亿参数的大模型,其算力的消耗是极其巨大的。就比如GPT - 4,就是那个据传参数量约为1.8万亿的,在业界有人估算它单次训练所需要的浮点运算量大概是2.1×10^25 FLOPS。要是采用2万张在当前属于主流的AI加速卡,这种单卡FP16算力约2 的来组成集群,再考虑到实际的利用率,也就是通常在40%至60%这个范围,完成训练大约是需要100天的。除了时间成本以外,电力的消耗也是同样惊人的。训练一个有着千亿参数的模型,其总的耗电约是1,300兆瓦时,这等同于130个普通的中国家庭一年要用的电量。推理阶段当中,尽管单次计算量是小的,然而调用的频次是极高的。依据2025年的一项由第三方做出的测算,某一主流的对话AI每次查询平均消耗2.9瓦时电力,按照每日有10亿次查询来计算,仅仅该服务一年的推理耗电就超过1,000吉瓦时。作为一种对比,全球所有AI数据中心在2024年的年耗电量已超过100太瓦时,近乎荷兰全国一年的用电总量。
瓶颈与挑战:算力并非无限
眼下,AI算力存在着三大方面的瓶颈:物理极限、能耗墙以及互连带宽。首先,芯片制程已然趋近于1纳米的量级,量子隧穿效应以及漏电问题致使传统硅基晶体管开展微缩工作变得困难重重。其次,算力跟功耗呈现出超线性的关系,也就是把频率提升20%常常会造成功耗增幅超过50%。到了2025年,单块AI加速卡的热设计功耗一般都能达到700瓦至1000瓦,一个有着2万张卡的集群仅仅计算节点的峰值功率就会高达20兆瓦,再加上冷却系统,总功耗能够达到40兆瓦。首先,大规模训练之时,需要数千张乃至数万张卡一块儿协同开展工作,卡之间的通信带宽变成了关键的瓶颈所在,就这么个情况。当前情况下,主流的与互连技术能够提供800 Gb/s至1.6 Tb/s的带宽,然而呢,跟计算单元内部每秒数太字节的带宽相比,还是存在着巨大的差距的。正是这些挑战,促使液冷、光互连、计算存储一体化等新技术得以快速在现实中落地,就是这样的。
未来方向:能效与架构革命
瞭望2030年,诸多预测表明AI算力需求会增长至1000倍以上,然而硬件能效每年只好适度提升约1.5倍。为了填补差距,产业界与学术界正在探寻多条途径,光是计算借助光子而非电子传送数据,理论上能效相比电子芯片要高2至3个数量级;存算一体架构把计算单元嵌入存储器,消除了“存储墙”引发的能耗与延迟;量子计算在特定的优化问题呈现出指数级加速潜力,虽说通用量子AI还需要十几年。与此同时,算法层面存在着低精度训练,具体是指FP8、INT4,其中还包括模型稀疏化、知识蒸馏等方面取得的进步,这些进步在同等算力的情况下达成了更高的效率。能够确定的是,AI算力会持续扮演智能时代核心资源的角色,对其量说无论发展速递抑或是规模大小通通分别都会对人工智能效力的边界产生深刻的影响。
