当前位置: 首页 > news >正文

SGLang:面向大模型服务化的高吞吐推理框架综述Structured Generation Language)

SGLang:面向大模型服务化的高吞吐推理框架综述
(基于 2025 年 12 月最新开源进展)

一、引言
随着 Llama-3-405B、DeepSeek-V3、Kimi-K2 等千亿级模型密集开源,推理端“高并发、低延迟、低成本”成为新的技术瓶颈。SGLang(Structured Generation Language)由 UC Berkeley LMSYS 团队于 2024 年发起,2025 年形成中美联合开源社区,已成为 GitHub 增速最快的推理框架之一(星标 2.5 k+)。其核心定位是“让任意大模型在多硬件、多场景、多用户条件下跑出理论峰值的 90 %”,并首次把“结构化生成”作为一等公民引入引擎内部。

二、总体架构

  1. 前端:Python DSL + OpenAI-Compatible Server
    开发者用@sgl.function装饰器即可把 prompt 写作可复用、可组合、可单元测试的“程序”,同时暴露/v1/chat/completions标准接口,老业务零成本迁移 。

  2. 调度器:CPU-GPU 协同双循环
    请求 → Pre-Schedule(Radix 前缀匹配、内存预算)→ Compute Batch(Prefill/Decode 分离)→ Sample(GPU)→ Post-Schedule(缓存回填)→ next Schedule,全链路异步零拷贝 。

  3. 运行时:模块化后端
    支持 FlashAttention-3、CUTLASS、CuDNN、昇腾 CANN、AMD ROCm 五条代码路径,同一套 Python 调度代码可透明切换硬件 。

三、关键技术创新

  1. RadixAttention——跨请求 KV-Cache 前缀复用
    基于 LRU 基数树,把“提示词+已生成结果”长期驻留显存;多轮对话、Agent 工具链、RAG 上下文等典型场景下,Cache 命中率 > 80 %,Llama-70B 实测吞吐比 vLLM 高 3.1 倍 。

  2. PD 分离(Prefill-Decode Disaggregation)
    将计算密集的 Prefill 阶段与内存密集的 Decode 阶段拆池;64 k 长文本场景下,单卡昇腾 910B 可跑 15 TPS,TTFT ≈ 4 s,TPOT ≈ 20 ms,PD 传输 < 8 ms 。

  3. 投机采样全家桶
    社区与美团联合开源 SpecForge,基于 Eagle3 做训练后投机;万亿 MoE 模型端到端提速 2.18 倍,且保持 bit-wise 正确,首次实现“训练-推理”一键闭环 。

  4. 结构化生成(Structured Generation)
    在解码阶段实时按正则/JSON Schema 约束输出,无需后处理;API 调用、函数调用、数据提取场景下,首 token 延迟降低 40 %,错误率下降 90 % 。

  5. 多级量化与内存压缩
    已落地 FP8、W4A8、Block-FP8,2025 Q4 合入 FP4;配合 CPU/NPU 三级缓存,可把 200 k 长序列显存占用压缩 55 % 。

四、模型与硬件生态

  • Day-0 支持:DeepSeek V3/R1、Qwen-Next、Kimi-K2、Llama-3.1-405B、Flux-Image 等稠密 / MoE / 多模态模型 。
  • 硬件:NVIDIA Hopper、Ada;AMD MI300;Intel Gaudi-3;华为昇腾 910B、310P;Google TPU v5e;生产环境已部署 30 + 万卡 。

五、性能基准

  • Llama-70B + 2048 in/128 out、32 并发:SGLang 2300 token/s,vLLM 740 token/s,TensorRT-LLM 1100 token/s(NVIDIA H100 8-GPU)。
  • DeepSeek-V3 在昇腾 910B 单卡:PD 分离后 15 TPS,相对合池方案提升 5×;FP8 量化再提 1.8× 。

六、典型应用场景

  1. Chatbot Arena:日活千万级对话,RadixAttention 把平均延迟从 1.8 s 压到 0.6 s。
  2. 美团搜推:SpecForge 线上 AB,GPU 成本年省 3000 万元。
  3. 阿里云 PAI:一键镜像 5 分钟拉起 128 k 长文本 API 服务。
  4. 边缘 AI:Intel CPU + OpenVINO 后端,70B 量化模型在 2×Sapphire Rapids 上跑 10 token/s。

七、开放问题与未来方向

  • 万卡级弹性:PD 池子如何根据潮汐流量秒级扩缩容?
  • 长序列 1 M+:稀疏局部注意力与 Radix 树如何协同?
  • 统一多模态:文本-图像-视频-音频共享同一调度器,内存池怎么切?
  • RL 在线训练:SGLang-VeRL 如何把 rollout 延迟压到 30 ms 以内?

八、结论
SGLang 用“RadixAttention + PD 分离 + 投机采样”三把斧,把大模型推理从“能跑”推向“跑得又快又省又稳”。在稀疏化、长序列、结构化生成三大趋势下,它已成为业界少有的“全栈、跨硬件、零门槛”开源基座。随着 2026 年 FP4、1 M 上下文、多模态统一引擎的落地,SGLang 有望继续拉大与同类框架的性能差距,成为 LLM 推理的“Linux Kernel”时刻。

http://www.jsqmd.com/news/138978/

相关文章:

  • 干网在线清洗机构哪家好?干网在线清洗服务商哪家经验丰富? - 工业品牌热点
  • 2025年长春靠谱问界汽车改装升级店排行榜,看哪家售后好? - 工业品牌热点
  • 别再烧钱了!:如何用消费级显卡成功部署Open-AutoGLM?实测数据说话
  • 2025年北京注销代办公司联系电话推荐:企业注销服务联系方式 - 品牌推荐
  • Dify平台茶叶冲泡指南生成效果评测
  • 【Open-AutoGLM核心技术解密】:ChatGPT时代下的自动化大模型演进之路
  • Claude Code 效率翻倍指南:你可能错过的10个隐藏更新【hepingfly】
  • 测试经理必备的“非技术”技能:沟通、协调与向上管理
  • 使用Dify构建酒吧鸡尾酒配方推荐系统
  • 深度解析:2025年户县值得信赖的全屋定制厂家排名,断墙铝/院墙/沙发/宋氏美学/混凝土工/回填土/钢筋/琉璃瓦/钢筋工全屋定制厂商哪家强 - 品牌推荐师
  • 2025年资质齐全的财务外包服务公司排行,不错的财务外包服务品牌企业推荐 - 工业推荐榜
  • 【Open-AutoGLM模型替换全攻略】:手把手教你5步更换大模型实现性能跃升
  • 【节点】[ChannelMask节点]原理解析与实际应用
  • 巨宇科技服务效率高吗?技术实力如何?TOP5 B端数字化营销服务商推荐 - mypinpai
  • Dify平台运动健身计划定制功能开发日志
  • 如何利用Dify平台申请AI相关科研项目资助?
  • Dify平台家具选购建议生成系统设计
  • Dify平台家具选购建议生成系统设计
  • 【稀缺资源】谷歌Open-AutoGLM核心架构图流出:仅限本周查看的技术解析
  • 爬虫自动化(DrissionPage) - 教程
  • 爬虫自动化(DrissionPage) - 教程
  • 2025年超声波分散设备生产厂排名:研发实力强的石墨烯超声波分散机厂家推荐 - 工业推荐榜
  • 济南美信造纸技术行业口碑排名如何?美信造纸技术的价格贵吗? - 工业品牌热点
  • 7、神经网络构建与优化全解析
  • 12、机器学习中的过拟合处理与性能评估
  • 3、深入理解单神经元:原理、激活函数与线性回归应用
  • 2025绵阳中学择校指南:高口碑学校深度推荐,高中复读学校/实验学校/学校/高中/实验中学/名办高中/中学中学厂商好不好 - 品牌推荐师
  • 2025年桥梁护栏厂家推荐:专业制造商与品牌商排行榜 - myqiye
  • 干网在线清洗企业哪家售后好、哪个值得选、哪家经验丰富? - 工业品牌热点
  • 【日记】做了一些家务,然后看见第三方摄影师拍的自己,天都要塌了(笑)(1307 字)