当前位置: 首页 > news >正文

Cerebras $488亿IPO:晶圆级芯片挑战英伟达AI算力霸权

上一篇Notion AI Agent Hub:工作空间变身智能体编排中心
下一篇5月13日AI生态大变局:购物Agent、隐私革命与算力危机



摘要

2026年5月,AI芯片初创公司Cerebras Systems以$488亿估值登陆纳斯达克(股票代码CBRS),IPO定价$185/股,融资约48亿美元,订单超额认购20倍。公司手握OpenAI 200亿美元Master Relationship Agreement(MRA),承诺750兆瓦算力部署,可扩展至2吉瓦。其核心产品WSE-3晶圆级芯片面积是英伟达H100的57倍,内存带宽高出7000倍,峰值算力125 PFLOPS。然而,UAE客户集中度86%、出口管制风险和英伟达竞争压力仍是悬在头上的三把利剑。

核心结论:Cerebras的IPO是AI芯片赛道"反英伟达联盟"的旗帜——WSE-3的晶圆级架构在内存带宽上有代际优势,但客户集中度风险和英伟达的护城河仍是最大不确定性。这场赌局的核心是:OpenAI能否用Cerebras的算力跑通下一代模型。


什么是Cerebras晶圆级芯片?

Cerebras WSE-3(Wafer-Scale Engine 3)是全球最大的AI训练/推理芯片,采用台积电整片晶圆(46,225 mm²)作为单一处理器,集成4万亿晶体管和90万个AI核心,片上SRAM 44GB,内存带宽21 PB/s,峰值FP16算力125 PFLOPS。与传统GPU的"多卡互联"范式不同,WSE-3通过晶圆级集成消除了芯片间通信瓶颈。


一、IPO关键数据一览

1.1 发行概况

指标数据
股票代码CBRS(纳斯达克)
IPO定价$185/股(来源:Bloomberg,2026-05-13)
最终估值$488亿
融资规模~$48亿
发行股份3000万股Class A
超额认购20倍
首席承销商Morgan Stanley, Citigroup, Barclays, UBS

1.2 定价演进:从$22亿到$488亿

阶段日期估值定价区间
S-1首次提交2026-04-17$22-25B-
修订S-12026-05-04$26.6B$115-$125/股
最终定价2026-05-13$48.8B$150-$160/股 → $185
Series H私募2026-02$23B-

估值在不到两个月内翻倍,核心驱动力是OpenAI合同的确认和市场对AI算力替代方案的渴求。


二、WSE-3 vs 英伟达:架构级代差

2.1 核心规格对比

规格Cerebras WSE-3Nvidia H100Nvidia B200倍数(WSE-3/H100)
芯片面积46,225 mm²814 mm²1,040 mm²57x
晶体管数4万亿800亿2080亿50x
AI核心数900,00016,89618,43253x
片上内存44 GB SRAM50 MB L260 MB L2900x
内存带宽21 PB/s3.35 TB/s8 TB/s6,269x
FP16峰值125 PFLOPS1.98 PFLOPS4.5 PFLOPS63x

2.2 架构范式差异

传统GPU范式(英伟达): ┌──────┐ ┌──────┐ ┌──────┐ │ GPU 1│ │ GPU 2│ │ GPU N│ ← 多芯片通过NVLink/NVSwitch互联 └──┬───┘ └──┬───┘ └──┬───┘ 通信延迟:~10μs └────────┼────────┘ NVSwitch/NVLink │ HBM3e Memory ← 离芯片内存,带宽受限 晶圆级范式(Cerebras): ┌──────────────────────────────┐ │ WSE-3 (整片晶圆) │ ← 单一处理器,无芯片间通信 │ 900K Cores + 44GB SRAM │ 通信延迟:~1ns(片上) │ Memory Bandwidth: 21 PB/s │ └──────────────────────────────┘

核心优势:WSE-3消除了"内存墙"问题——数据不需要在GPU和HBM之间来回搬运,所有计算和存储都在同一片晶圆上完成。这对大模型训练中的注意力机制计算尤为关键。


三、OpenAI合同:200亿美元的算力赌注

3.1 合同详情

合同要素详情
协议类型Master Relationship Agreement (MRA)
合同总价值$200亿+(来源:Cerebras S-1,2026-04-17)
算力承诺750兆瓦(可扩展至2吉瓦,2030年前)
等效CS-3系统~30,000台
部署时间线分阶段至2028年
约束力有约束力的MRA

3.2 OpenAI为什么需要Cerebras?

OpenAI的算力策略正在从"纯英伟达"转向多元化采购

  1. 成本:Cerebras的推理成本据称比同性能GPU低40-60%
  2. 延迟:晶圆级架构的内存带宽优势使推理延迟显著降低
  3. 供应链安全:不完全依赖英伟达一家供应商
  4. 微软$1000亿+投入:但OpenAI担心过度依赖微软(来源:Bloomberg,2026-05-13)

四、财务数据:收入增长与风险并存

4.1 收入趋势

时期收入同比最大客户
2024 H1(年化)~$2.72亿-G42(87%)
2025全年$5.10亿76%MBZUAI(62%)+ G42(24%)

4.2 盈利状况

指标2025数值
Non-GAAP净利润$2.378亿
Non-GAAP利润率~47%
GAAP净亏损-$0.757亿

4.3 客户集中度风险

客户收入占比国家
MBZUAI62%阿联酋
G4224%阿联酋
UAE合计86%-
OpenAITBD(合同刚签)美国

86%收入来自单一国家——这是Cerebras最大的结构性风险。美国出口管制政策的任何变化都可能严重影响其收入。


五、AI芯片格局:多极化时代来临

5.1 2026年AI芯片市场份额预测

厂商2025份额2026E份额核心产品
英伟达~85%~75%B200, B300, Rubin
AMD~5%~8%MI400
Cerebras<2%~5%WSE-3, CS-3
Google TPU~5%~7%Trillium
Intel~3%~3%Falcon Shores
其他<1%~2%-

5.2 Cerebras的护城河与挑战

优势劣势
晶圆级架构内存带宽代际领先软件生态远不如CUDA
OpenAI 200亿合同背书UAE客户集中度86%
Non-GAAP已盈利台积电产能依赖
WSE-4(3nm)开发中英伟达价格战压力

六、FAQ

Q1:Cerebras WSE-3和英伟达GPU的核心区别是什么?

A:核心区别在内存架构。GPU采用"计算核心+外挂HBM"的冯·诺依曼架构,数据需要在核心和内存之间搬运,形成"内存墙";WSE-3将44GB SRAM直接集成在晶圆上,900K核心共享21 PB/s带宽,数据零搬运。简单说:GPU是"快递员搬砖",WSE-3是"砖头就在手边"。

Q2:为什么OpenAI要选择Cerebras而不是继续用英伟达?

A:三个核心原因:①推理成本:Cerebras在推理场景的成本效益更优;②供应链多元化:避免对英伟达的完全依赖;③延迟优势:对ChatGPT等实时交互场景,低延迟至关重要。微软在审判中透露已向OpenAI投入超$1000亿(来源:Bloomberg,2026-05-13),但OpenAI也在积极寻找替代算力。

Q3:86%的UAE客户集中度意味着什么风险?

A:主要风险是美国出口管制。如果美国政府收紧对中东AI算力出口的政策(类似2023年对中国的高端GPU禁令),Cerebras可能瞬间失去大部分收入。S-1中已披露G42的股权已重组为非投票权以通过CFIUS审查,但风险仍在。

Q4:WSE-4会带来什么改进?

A:WSE-4预计于2026年底至2027年初推出,采用台积电3nm工艺。预期改进包括:更高核心密度、更大片上SRAM(可能>64GB)、更高能效比。这将是Cerebras与英伟达Rubin架构正面对决的产品。

Q5:Cerebras IPO对AI行业意味着什么?

A:这是AI芯片赛道多元化的标志性事件。Cerebras的成功IPO证明"非英伟达路线"也能获得资本市场认可,将为Groq、SambaNova、Tenstorrent等芯片初创公司打开融资窗口。同时,OpenAI作为anchor客户也为"算力买家直投算力供应商"的模式提供了模板。


上一篇Notion AI Agent Hub:工作空间变身智能体编排中心
下一篇5月13日AI生态大变局:购物Agent、隐私革命与算力危机


参考资料

  1. Cerebras S-1 Registration Statement (2026-04-17): SEC Filing
  2. Bloomberg (2026-05-13): “Cerebras prices IPO at $185/share, above expected range”
  3. Sina Finance (2026-05-12): “AI需求火爆,Cerebras上调IPO发行价”
  4. Tech Insider (2026-04-19): “Cerebras IPO: $510M Revenue, $10B OpenAI Deal, $23B Valuation”
  5. QQ News (2026-05-09): “Cerebras上市背后,OpenAI正在抢英伟达的蛋糕”
  6. Cerebras官方 (2026): WSE-3 Technical Specifications
  7. CNBC (2026-05-13): “Cerebras IPO pricing and AI chip competition”
  8. Sina Finance (2026-05-11): “Cerebras上调IPO发行规模,拟募资48亿美元”

http://www.jsqmd.com/news/817475/

相关文章:

  • 基于Robei与FPGA:构建Lora无线通讯的机器人控制核心
  • 独立开发者如何利用 Taotoken 以更低成本试验多种大模型
  • 【限时解锁】Midjourney私有风格库构建术:仅限Pro+账户可用的--style-ref隐式调用协议与本地化缓存加速秘技
  • 3分钟掌握Navicat密码找回:免费开源工具的终极使用指南
  • Harbor私有仓库从入门到精通:不只是安装,还有多节点登录配置与日常运维命令
  • 数据分析:Pandas与数据清洗实战
  • 英雄联盟智能战绩查询工具Seraphine:免费终极助手提升你的游戏决策能力
  • OpenViking:基于文件系统的AI智能体轻量级记忆与上下文管理方案
  • Hadoop 3.3.1实战:用Java API搞定HDFS文件读写,附Eclipse完整项目配置与常见报错解决
  • 手把手教你用STM32 GPIO安全控制MP2451负压电路(附保护电路设计)
  • 告别IP焦虑:用luci-app-aliddns打造永不离线的智能家居网络
  • STM32H7串口接收别再轮询了!用DMA+空闲中断实现零CPU占用的‘双缓冲’接收方案
  • 【Vue工程师AI协作者准入清单】:7类高危Prompt陷阱、4种Claude微调配置,团队已禁用3种低效用法
  • 采购全靠经验和人脉?这几个痛点你肯定中招了
  • 别再只画线了!HDMI PCB布局的差分信号、阻抗控制与等长布线实战避坑指南
  • 书匠策AI:一个让你“毕业不秃头“的论文神器,到底藏了什么黑科技?
  • 新手注册Taotoken后快速获取并测试首个API Key
  • PPT一键生成怎么做?2026年最全教程:工具对比 + 实操步骤一篇搞定
  • L-PCN加速器:优化点云网络计算冗余的创新方案
  • 从ESC社交胸牌看无线Mesh网络在物联网与开源硬件中的实践
  • Create 2026百度AI开发者大会:模型退居幕后,智能体集体上场
  • 告别盲调!用IDA Pro调试Android so库的保姆级避坑指南(附ARM指令速查)
  • 别再纠结了!Fluent计算精度选单精度还是双精度?一个案例告诉你答案
  • Navicat密码解密:当数据库连接密码从记忆中消失时的技术救赎
  • AI咖啡豆分析:计算机视觉与机器学习在咖啡冲煮参数预测中的应用
  • 鄂尔多斯豆包推广找哪家?宁夏壹山网络,全行业适配企业/工厂/门店推广需求 - 宁夏壹山网络
  • 如何快速部署LuckyLilliaBot:5步完成QQ机器人OneBot11协议支持
  • XRZero-G0:机器人灵巧操作数据采集的创新解决方案
  • 苏格拉底提问法到底是什么?一篇文章讲清楚:原理、误区与现代用法全解析
  • 别再乱设多视比了!用SARscape处理InSAR数据时,这个15米/30米参数到底怎么调?