当前位置: 首页 > news >正文

AAAI 2026 AMD论文Spark方法揭秘:查询感知的 KV 缓存通道剪枝

AAAI 2026 AMD论文Spark方法揭秘:查询感知的 KV 缓存通道剪枝

原文作者:Huanxuan Liao, Yixing Xu, Shizhu He, Guanchen Li, Xuanwu Yin, Dong Li, Emad Barsoum, Jun Zhao, Kang Liu

在这篇博客中,我们将讨论SparK,一种无需训练、即插即用的大语言模型(LLMs)KV缓存压缩方法。通过解决特征通道中被忽视的冗余,并采用“剪枝与恢复”的策略,SparK 在保持模型精度的同时,相比传统方法减少了超过 30% 的 KV 缓存存储。它为长上下文推理提供了一个稳健的解决方案,并在非结构化稀疏性方面开辟了新的视角。

SparK 与 AMD ROCm™ 软件栈协同设计,以充分发挥 AMD GPU 的并行计算能力。我们的 KV 缓存剪枝方法能够帮助提升 LLM 在 AMD GPU 上的性能。

欢迎阅读完整论文 [1] 并尝试实现 [2] 。本研究已被AAAI 2026 [3] 接收。

为什么 KV 缓存压缩很重要

在大语言模型(LLMs)的长上下文推理中,越来越受到 KV 缓存瓶颈 的限制:内存使用随着序列长度 线性增长,而注意力计算则随着序列长度 二次方增长。这限制了单个 GPU 上可处理的最大批量大小和序列长度。

图 1:示意性比较 (a) 完整 KV 缓存,(b) 基于淘汰的 KV 压缩,(c) 基于结构化通道剪枝的 KV 缩减,以及 (d) 我们提出的SparK,其采用非结构化通道剪枝,并在注意力分数计算过程中进行后续恢复。

如图 1 所示,现有方法通常通过在时间轴(即 token 维度)上压缩 KV 缓存来解决这一问题。诸如 token 淘汰(移除不重要的 token)或 token 合并 等策略,一直是减少内存开销的标准做法。 然而,这些方法往往忽视了特征维度(通道)中存在的冗余。它们将所有通道视为同等重要,可能会保留一些“无效”或不相关的特征信息,从而占用宝贵的内存资源。

SparK 内部机制:它是如何工作的

图 2:SparK 示意图。SparK 在 prefill 阶段 计算通道级显著性分数,并进行 非结构化剪枝。在 解码阶段,SparK 利用 F 和从缓存分布中采样来重建被剪枝的通道,然后执行标准的完整注意力计算。

SparK(Query-Aware Unstructured Sparsity with Recoverable KV Cache Channel Pruning) 采用了一种不同的方式。它并不仅仅是淘汰 tokens,而是如图 2 所示,直接针对通道级冗余进行处理。

SparK 的核心洞察在于:通道显著性在不同的查询和位置之间存在显著差异。对于某个特定查询,某些特征通道几乎不携带任何信息,而另一些通道则会在相关性上急剧提升。

SparK 基于一个简单但有效的原则运行:

  • 查询感知剪枝(Query-Aware Pruning):在通道层面识别并剪枝那些对当前查询无关的 KV 条目。
  • 动态恢复(Dynamic Recovery):关键在于,它会在注意力分数计算过程中动态恢复被剪枝的条目。

这种“剪枝—恢复”机制使 SparK 能够在应用非结构化稀疏性的同时,不会永久丢失高精度注意力所需的关键信息。值得注意的是,SparK 与现有的压缩技术是正交的。这意味着它可以与量化或token淘汰方法结合使用,在AMD GPU上实现更进一步的内存节省。

在 AMD GPU 上的结果:稳健性与高效性

表 1:在 LongBench 上对 LLaMA-3-8B-Instruct 的性能比较。 SparK (λ) 表示通道级 Key 缓存剪枝比例 λ。 基准测试在 AMDGPU加速器上进行。

SparK 相较于基线的淘汰式方法展现出令人印象深刻的稳健性:

  • 存储减少(Storage Reduction):在相同序列长度下,SparK 相比标准淘汰方法可减少超过30% 的 KV 缓存存储,如图 3 (b) 所示。
  • 精度保持(Accuracy Preservation):通过减少通道级冗余,SparK 能够在相同的内存预算下处理更长的序列。在测试中,相较于基线方法它要么保持,要么提升了模型精度,如表 1 所示。
  • 高稀疏容忍度(High Sparsity Tolerance):即使在激进的80% 剪枝比例下,SparK 的性能仍能保持在基线淘汰方法的水平之上,性能下降不到5%,如图 3 (a) 所示。

图 3:在 LLaMA3-8B-Instruct 上对 SparK 的性能分析。 (a) LongBench 在不同剪枝比例 (λ) 下的平均性能。SparK 在所有压缩水平上均显著优于 ThinK。 (b) 缓存大小与性能的权衡。SparK 相比 ThinK 和 SnapKV 实现了更优的存储—性能平衡。 实验在 AMDGPU加速器上进行。

这些结果突显了 SparK 在处理长上下文场景方面的强大能力,使其成为内存受限环境中的稳健选择。

总结

在这篇博客中,我们探讨了SparK——一种缓解大语言模型(LLMs)中 KV 缓存瓶颈的全新方法。不同于传统的时间维度压缩,SparK 利用通道维度中的非结构化稀疏性。通过剪枝无关通道并在计算过程中动态恢复,它在无需重新训练模型的情况下实现了显著的内存节省。

SparK的突出之处在于,它是一种即插即用的解决方案,能够与现有的 KV 压缩和量化技术兼容,为优化长上下文 LLM 推理提供了灵活的工具。

您可以在我们的论文中深入了解方法论和详细的基准测试,并在 GitHub [2] 上获取实现。我们欢迎研究人员在支持 AMD ROCm 的 GPU 上探索 SparK,并与社区分享反馈。

我们也邀请您体验 AMD Developer Cloud[4],其中配备了专为 AI 工作流打造的 AMD GPU加速器。如有问题或合作机会,请联系 AMD 团队:amd_ai_mkt@amd.com。请持续关注后续的博客文章、扩展工具以及实践教程,我们将不断推进 KV 缓存剪枝的研究与应用。

参考链接

[1] 原文:https://arxiv.org/abs/2508.15212

[2] AMD-Spark实现:https://github.com/AMD-AGI/AMD-Spark

[3] AAAI 2026:https://aaai.org/conference/aaai/aaai-26/

[4] AMD Developer Cloud:https://amd.digitalocean.com/login

获取更多AMD开发者资源及技术支持,欢迎添加小助手微信:

AMD_Developer(备注:开发者)

http://www.jsqmd.com/news/699783/

相关文章:

  • 量子投票协议:原理、实现与噪声分析
  • 2026年的 ReAct Agent架构解析:原生 Tool Calling 与 LangGraph 状态机
  • 终极指南:如何在3分钟内为Windows电脑免费扩展10个虚拟显示器
  • 部署与可视化系统:边缘设备部署:YOLOv8 量化 + NCNN 在树莓派 5 上实时检测
  • IP归属地API接入实战指南:3天内安全上线的评估与落地方法
  • 成品批次信息及全链路溯源汇报材料(大客户专用)
  • 为AI编码助手注入Azure专家知识:Agent-Skills项目实战指南
  • Spring AI 实战:用 MongoDB Atlas 搭建高性能向量存储
  • 如何突破游戏数据黑箱?WzComparerR2逆向工程实战解析
  • I-PEX 81619-100B-02-D 极细同轴线在高速差分信号中的性能优势与替代方案
  • 绵阳市专业GEO搜索优化推广代运营公司哪家靠谱 - 舒雯文化
  • 算法训练营Day12| LeetCode 169. 多数元素
  • 07 开发商购买土地 数组 (前缀和)
  • MASA模组汉化终极指南:让Minecraft专业工具说中文
  • 【算法笔记】二分查找与二分答案
  • 解决DWPose预处理器ONNX运行时错误的深度技术分析与修复方案
  • 集团总部失控:诸侯是怎么养成的?
  • 为什么 Agent 框架越来越多:LangChain、LangGraph、AutoGen 生态对比
  • 【嵌入式调试新纪元】:VSCode 2026原生支持SWD over USB-C、内存映射热重载与双核同步断点(仅限首批127个MCU型号)
  • Cursor Pro激活器实战:3步高效破解AI编程助手限制
  • Materials Project API技术架构与高级应用指南:从数据查询到材料科学创新
  • stp思维导图
  • k1周:多模态融合-阿尔茨海默病检测
  • 剪映专业版教程:制作百叶窗转场效果
  • 从 Agent 到 Agentic AI:企业级智能体工程实现的关键差异
  • 显卡驱动彻底清理指南:Display Driver Uninstaller深度解析与实战应用
  • Docker 与 Kubernetes 部署最佳实践 2027
  • UnityFigmaBridge:打破设计与开发壁垒的终极协作解决方案
  • AI 伴侣的伦理困境:当代码学会说「我爱你」,人类准备好了吗?
  • 为什么92%的嵌入式团队在LLM移植中踩坑?:揭秘C语言指针对齐陷阱、中断上下文推理崩溃、Flash页擦写冲突三大“静默杀手”