当前位置: 首页 > news >正文

CANN/cann-bench 分组矩阵乘量化融合算子评测

GroupedMatmulSwigluQuant 算子 API 描述

【免费下载链接】cann-bench评测AI在处理CANN领域代码任务的能力,涵盖算子生成、算子优化等领域,支撑模型选型、训练效果评估,统一量化评估标准,识别Agent能力短板,构建CANN领域评测平台,推动AI能力在CANN领域的持续演进。项目地址: https://gitcode.com/cann/cann-bench

1. 算子简介

分组矩阵乘法(GroupedMatmul / GMM)、反量化、SwiGLU 激活与再量化的融合算子,将四个步骤合并为一次 Kernel 调用以减少中间数据搬运。语义对齐torch_npu.npu_grouped_matmul_swiglu_quant_v2的默认配置。

主要应用场景

  • 大语言模型中 MoE(Mixture of Experts)结构的 FFN 层前半段(Gate+Up 投影 + SwiGLU + 量化)
  • 量化推理流水线中 GMM → 激活 → 再量化的整体融合
  • 对 token 分组路由后,每组 token 使用独立专家权重的高性能推理

算子特征

  • 难度等级:L4(FusedComposite)
  • 多输入、双输出;涉及 GMM、per-token / per-channel 反量化、SwiGLU、再量化
  • 激活与权重均为 int8(x 已完成 per-token 量化),输出为 int8 + float32 scale

2. 算子定义

数学公式

$$ \begin{aligned} &\text{对每个专家 } g \in [0, E),\ \text{根据 } group_list\ (\text{cumsum}) \text{ 取属于该组的 token 行 } rows_g: \ &mm_g = x[rows_g] \cdot weight[g] \ &deq_g = mm_g \odot x_scale[rows_g] \odot weight_scale[g] \ &\text{合并所有组得到 } deq \in \mathbb{R}^{M \times N} \ &left, right = \text{split}(deq,\ \text{last_dim}/2) \ &act = \text{SiLU}(left) \odot right \ &y,\ y_scale = \text{PerTokenQuant}(act) \end{aligned} $$

步骤拆解

  1. 分组矩阵乘法(GMM)group_list采用 cumsum 语义,将xM行划分到E个专家;第g组的 token 与weight[g]做矩阵乘。
  2. 反量化(Dequant):左 per-token + 右 per-channel,deq[i, j] = mm[i, j] * x_scale[i] * weight_scale[g(i), j]
  3. SwiGLU:沿最后一维对半拆分为left, right,计算SiLU(left) * right,输出宽度减半为N/2
  4. 再量化(Quant):per-token,y_scale[i] = max_j|act[i, j]| / 127y[i, j] = clamp(round(act[i, j] / y_scale[i]), -128, 127)

3. 接口规范

算子原型

cann_bench.grouped_matmul_swiglu_quant( Tensor x, Tensor weight, Tensor weight_scale, Tensor x_scale, Tensor group_list, ) -> (Tensor y, Tensor y_scale)

输入参数

参数类型Shape描述
xTensor (int8)[M, K]激活矩阵(GMM 左矩阵,已完成 per-token 量化),允许非连续
weightTensor (int8)[E, K, N]专家权重(GMM 右矩阵)
weight_scaleTensor (float32)[E, N]权重 per-channel 反量化因子
x_scaleTensor (float32)[M]激活 per-token 反量化因子
group_listTensor (int32)[E]每个专家的 token 累计和(cumsum)

输出

参数Shapedtype描述
y[M, N/2]int8SwiGLU 后的 per-token int8 量化结果
y_scale[M]float32输出 per-token 反量化因子

数据类型

输入 dtype输出 dtype
x: int8;weight: int8;*_scale: float32;group_list: int32y: int8;y_scale: float32

规则与约束

  • xK维必须与weightK维一致。
  • weight的最后一维N必须为偶数,以便 SwiGLU 对半拆分。
  • group_list为 cumsum 序列,长度为E,最终累计值不得超过M
  • 输出y会被截断到[-128, 127]

4. 精度要求

采用生态算子精度标准进行验证。

误差指标

  1. 平均相对误差(MERE):采样点中相对误差平均值

    $$ \text{MERE} = \text{avg}(\frac{\text{abs}(actual - golden)}{\text{abs}(golden)+\text{1e-7}}) $$

  2. 最大相对误差(MARE):采样点中相对误差最大值

    $$ \text{MARE} = \max(\frac{\text{abs}(actual - golden)}{\text{abs}(golden)+\text{1e-7}}) $$

通过标准

数据类型FLOAT16BFLOAT16FLOAT32HiFLOAT32FLOAT8 E4M3FLOAT8 E5M2
通过阈值(Threshold)2^-102^-72^-132^-112^-32^-2

当平均相对误差 MERE < Threshold,最大相对误差 MARE < 10 * Threshold 时判定为通过。

5. 标准 Golden 代码

import torch from typing import Tuple def grouped_matmul_swiglu_quant( x: torch.Tensor, weight: torch.Tensor, weight_scale: torch.Tensor, x_scale: torch.Tensor, group_list: torch.Tensor, ) -> Tuple[torch.Tensor, torch.Tensor]: M, K = x.shape E, _, N = weight.shape N_out = N // 2 ends = group_list.to(torch.int64).tolist() starts = [0] + ends[:-1] dequant = torch.empty((M, N), dtype=torch.float32, device=x.device) x_scale_f = x_scale.float() for g in range(E): s, e = starts[g], ends[g] if s == e: continue mm = torch.matmul(x[s:e].float(), weight[g].float()) xs = x_scale_f[s:e].unsqueeze(1) ws = weight_scale[g].float().unsqueeze(0) dequant[s:e] = mm * xs * ws left, right = dequant[..., :N_out], dequant[..., N_out:] act = torch.nn.functional.silu(left) * right eps = torch.finfo(torch.float32).tiny y_scale = act.abs().amax(dim=-1).clamp_min(eps) / 127.0 y = torch.clamp(torch.round(act / y_scale.unsqueeze(1)), -128, 127).to(torch.int8) return y, y_scale.to(torch.float32)

6. 额外信息

算子调用示例

import torch import cann_bench M, K, N, E = 64, 256, 512, 4 x = torch.randint(-128, 127, (M, K), dtype=torch.int8, device="npu") weight = torch.randint(-128, 127, (E, K, N), dtype=torch.int8, device="npu") weight_scale = torch.rand(E, N, dtype=torch.float32, device="npu") * 0.01 x_scale = torch.rand(M, dtype=torch.float32, device="npu") * 0.01 # cumsum 语义:四组累计 16/32/48/64 group_list = torch.tensor([16, 32, 48, 64], dtype=torch.int32, device="npu") y, y_scale = cann_bench.grouped_matmul_swiglu_quant( x, weight, weight_scale, x_scale, group_list, )

参考文档

  • torch_npu.npu_grouped_matmul_swiglu_quant_v2:https://www.hiascend.com/document/detail/zh/Pytorch/730/apiref/torchnpuCustomsapi/docs/context/torch_npu-npu_grouped_matmul_swiglu_quant_v2.md

【免费下载链接】cann-bench评测AI在处理CANN领域代码任务的能力,涵盖算子生成、算子优化等领域,支撑模型选型、训练效果评估,统一量化评估标准,识别Agent能力短板,构建CANN领域评测平台,推动AI能力在CANN领域的持续演进。项目地址: https://gitcode.com/cann/cann-bench

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

http://www.jsqmd.com/news/784306/

相关文章:

  • CANN/HCOMM线程通知记录API
  • 2026年湖州干洗店大测评:权威榜单揭晓哪家强 - 速递信息
  • CANN/amct压缩概念详解
  • 学习日记DAY41
  • 2026 北京老酒回收第三方实测:5 大权威商家榜单出炉,京诚酒行 99.7 分领跑 - 资讯焦点
  • Pandas数据分析避坑指南:用Hampel Filter优雅处理金融时间序列里的‘毛刺’
  • 动态思维链与并行强化学习在自动定理证明中的应用
  • CANN/ops-cv三点插值反向传播算子
  • 构建企业算法审查委员会:从公平性评估到全生命周期治理
  • 教育AI信任构建:以透明度与可解释性化解多利益相关者冲突
  • CANN/sip信号插值示例
  • mex元数据提取库:从原理到实战的Python自动化信息抽取指南
  • 2026年厦门汽车洗美店加盟哪家靠谱?一站式赋能+托管运营权威清单 - 资讯焦点
  • 带有embeding 同时训练的Lora 权重合并,合并后的权重的模型,再训练数的Loss 突然增加
  • 如何免费获取网盘直链:八大主流网盘下载助手完整使用教程
  • 硬件补贴、软件盈利:互联网商业模式的再次轮回?——从软件测试视角看生态闭环与质量博弈
  • Voxtral-4B-TTS-2603部署案例:AI初创公司构建语音内容工厂,日均生成5000+分钟语音
  • CANN/hixl性能基准测试
  • 机器人潜在运动建模技术:提升工业自动化精度
  • 无轨道PD门:重新定义建筑空间通行的技术解析与行业趋势 - 资讯焦点
  • AI文献综述工具评估:性能、可用性与透明度三维度解析
  • 数据要素化与资产化:个人和企业的数据如何产生价值?
  • Phi-4-mini-reasoning 3.8B 网络协议分析助手:智能化解读与故障模拟
  • CANN/pyasc图像加载API
  • 2026 西北旅游优质旅行社推荐:专业定制,畅游甘青 - 深度智识库
  • 2026年数据治理平台综合选型:数据中台落地前必须回答的几个问题
  • 低资源语言AI写作助手:数据质量与微调策略的工程实践
  • 初次使用taotoken模型广场进行模型选型与对比的直观体验
  • 不用等冬季,迈吉科壁挂炉当“夏”安装好处多! - 资讯焦点
  • ROS Navigation编译踩坑记:解决Amcl模块Python3兼容性问题(附完整命令)