当前位置: 首页 > news >正文

CANN/AMCT API接口文档

整体约束和接口列表

【免费下载链接】amctAMCT是CANN提供的昇腾AI处理器亲和的模型压缩工具仓。项目地址: https://gitcode.com/cann/amct

整体约束

  • 若接口中存在需要用户输入文件路径的参数,请确保输入路径正确,AMCT不会对路径做安全校验。
  • 若接口中存在需要用户输入文件路径的参数,重新执行量化时,该参数相关取值将会被覆盖;量化打屏日志中也会有相关文件被覆盖的warning风险提示信息。

接口列表

分类接口名称功能描述
公共接口ModelEvaluator针对某一个模型,根据模型的bin类型输入数据,提供一个Python实例,可对该模型执行校准和推理的评估器。
训练后量化接口quantize高精度模型转换为校准模型,得到量化校准模型,推理后计算得到量化参数。
convert将量化校准模型转换为量化部署模型。
algorithm_register将用户提供的自定义算法注册到AMCT工具。
create_quant_config训练后量化接口,根据图的结构找到所有可量化的层,自动生成量化配置文件,并将可量化层的量化配置信息写入文件。
quantize_model训练后量化接口,将输入的待量化的图结构按照给定的量化配置文件进行量化处理,在传入的图结构中插入权重量化、数据量化相关的算子,生成量化因子记录文件record_file,返回修改后的torch.nn.Module校准模型。
save_model训练后量化接口,根据量化因子记录文件record_file以及修改后的模型,插入AscendQuant、AscendDequant等算子,然后保存为可以在ONNX Runtime环境进行精度仿真的fake_quant模型,和可以在AI处理器做推理的部署模型。
accuracy_based_auto_calibration根据用户输入的模型、配置文件进行自动的校准过程,搜索得到一个满足目标精度的量化配置,输出可以在ONNX Runtime环境下做精度仿真的fake_quant模型,和可在AI处理器上做推理的deploy模型。
quantize_preprocess量化数据均衡预处理接口,将输入的待量化的图结构按照给定的量化配置文件进行量化处理,在传入的图结构中插入均衡量化相关的算子,生成均衡量化因子记录文件record_file,返回修改后的torch.nn.Module校准模型。
量化感知训练接口create_quant_retrain_config量化感知训练接口,根据图的结构找到所有可量化的层,自动生成量化配置文件,并将可量化层的量化配置信息写入配置文件。
create_quant_retrain_model量化感知训练接口,将输入的待量化的图结构按照给定的量化配置文件进行量化处理,在传入的图结构中插入量化相关的算子(数据和权重的量化感知训练层以及找N的层),生成量化因子记录文件record_file,返回修改后可用于量化感知训练的torch.nn.Module模型。
restore_quant_retrain_model量化感知训练接口,将输入的待量化的图结构按照给定的量化感知训练配置文件进行量化处理,在传入的图结构中插入量化感知训练相关的算子(数据和权重的量化感知训练层以及找N的层),生成量化因子记录文件record_file,加载训练过程中保存的checkpoint权重参数,返回修改后的torch.nn.Module量化感知训练模型。
save_quant_retrain_model量化感知训练接口,根据用户最终的重训练好的模型,插入AscendQuant、AscendDequant等算子,生成最终量化精度仿真模型以及量化部署模型。
单算子模式量化感知训练接口Conv2dQAT构造Conv2d的QAT算子。
ConvTranspose2dQAT构造ConvTranspose2d的QAT算子。
Conv3dQAT构造Conv3d的QAT算子。
LinearQAT构造Linear的QAT算子。
稀疏接口create_prune_retrain_model通道稀疏或4选2结构化稀疏接口,两种稀疏特性每次只能使能一个:将输入的待稀疏的图结构按照给定的稀疏配置文件进行稀疏处理,在传入的图结构中插入或者替换相关的算子,生成记录稀疏信息的record_file,返回修改后可用于稀疏后训练的torch.nn.Module模型。
restore_prune_retrain_model通道稀疏或4选2结构化稀疏接口,两种稀疏特性每次只能使能一个:将输入的待稀疏的图结构按照给定的record_file中稀疏记录进行稀疏,返回修改后可用于稀疏后训练的torch.nn.Module模型。
save_prune_retrain_model稀疏接口,根据用户最终的重训练好的稀疏模型,生成最终ONNX仿真模型以及部署模型。
自动通道稀疏搜索接口auto_channel_prune_search自动通道稀疏接口,根据用户模型来计算各通道的稀疏敏感度(影响精度)以及稀疏收益(影响性能),然后搜索策略依据该输入来搜索最优的逐层通道稀疏率,以平衡精度和性能。最终输出一个配置文件。
组合压缩接口create_compressed_retrain_model静态组合压缩接口,将输入的待静态组合压缩的模型按照给定的组合压缩配置文件进行压缩处理,即将传入的模型先进行稀疏(通道稀疏或者4选2结构化稀疏,二选一),后对模型插入量化相关的算子(数据和权重的量化感知训练层以及searchN的层),生成稀疏和量化因子记录文件record_file(如果配置存在),返回修改后的torch.nn.Module模型。
restore_compressed_retrain_model静态组合压缩训练接口,将输入的待静态组合压缩的模型按照给定的组合压缩配置文件和record记录文件进行压缩处理(先稀疏后量化),加载保存的权重。将传入的模型按照给定record_file中稀疏记录进行稀疏,后对模型插入量化相关的算子(数据和权重的量化感知训练层以及searchN的层)。加载训练过程中保存的checkpoint权重参数,返回修改后的torch.nn.Module模型。
save_compressed_retrain_model静态组合压缩接口,根据用户最终的重训练好的模型,生成最终静态组合压缩精度仿真模型以及部署模型。
张量分解接口auto_decomposition对用户输入的PyTorch模型对象进行张量分解,得到分解后的模型对象和分解前后层的对应名称,并保存分解信息文件(可选)。
decompose_network用户输入PyTorch模型对象和通过auto_decomposition保存的分解信息文件,根据分解信息文件将模型对象改变为张量分解后的结构,得到分解后的模型对象和分解前后层的对应名称。
蒸馏接口create_distill_config蒸馏接口,根据图的结构找到所有可蒸馏量化的层和可蒸馏量化的结构,自动生成蒸馏量化配置文件,并将可蒸馏量化层的量化配置和蒸馏结构写入配置文件。
create_distill_model蒸馏接口,将输入的待量化压缩的图结构按照给定的蒸馏量化配置文件进行量化处理,在传入的图结构中插入量化相关的算子(数据和权重的蒸馏量化层以及找N的层),返回修改后可用于蒸馏的torch.nn.Module模型。
distill蒸馏接口,将输入的待蒸馏的图结构按照给定的蒸馏量化配置文件进行蒸馏处理,返回修改后的torch.nn.Module蒸馏模型。
save_distill_model蒸馏接口,根据用户最终的蒸馏好的模型,生成最终量化精度仿真模型以及量化部署模型。
KV Cache量化接口create_quant_cali_configKV-cache量化接口,根据用户传入模型、量化层信息与量化配置信息,生成每个层的详细量化配置。
create_quant_cali_modelKV-cache量化接口,根据模型和量化详细配置,对用户模型进行改图,将待量化Linear算子替换为输出后进行IFMR/HFMG量化的量化算子,后续用户拿到模型后进行在线校准,校准后生成量化因子保存在record_file中。
QuantCalibrationOpKV Cache量化接口,用于用户构图,在前向传播时,根据用户的量化算法配置调用IFMR/HFMG量化算法对输出做校准,校准后,将量化因子依据对应格式输出到record_file文件指定层名中。

【免费下载链接】amctAMCT是CANN提供的昇腾AI处理器亲和的模型压缩工具仓。项目地址: https://gitcode.com/cann/amct

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

http://www.jsqmd.com/news/784822/

相关文章:

  • 去中心化AI架构解析:从区块链信任到分布式AI协作网络
  • 在Nodejs后端服务中集成稳定可靠的大模型调用能力
  • CANN/cannbot-skills A5设备约束指南
  • 2026届必备的六大降AI率助手实测分析
  • 自监督学习、能量模型与JEPA:构建下一代AI世界模型的核心技术
  • CANN社区机器人能力列表
  • 多模态大模型赋能港口,从视频孪生迈向空间原生智能
  • Phi-4-Reasoning-Vision商业应用:电商商品图深度解析+卖点自动生成方案
  • AI优化疫苗接种干预:ADVISER框架在尼日利亚公共卫生最后一公里的实践
  • FireRedASR-AED-L入门必看:1.1B参数大模型本地化部署全流程
  • 如何快速掌握鼠标键盘自动化:KeymouseGo完整入门指南
  • 全面掌握Windows驱动管理:DriverStore Explorer实战指南
  • 3分钟掌握微信聊天记录解密:WechatDecrypt让你的数据重获自由
  • CAPL编程避坑指南:搞懂NetWork Node里的全局变量、文件包含与编译那些事儿
  • 律师上课记干货太吃力!2026年3款b站视频怎么转文字工具,1分钟导出整理办案笔记
  • CANN/catlass 逐令牌反量化
  • 等变神经网络:用群论与表示论构建具备对称性先验的AI模型
  • 如何快速掌握Video DownloadHelper CoApp:新手入门完整指南
  • CANN/catccos AllGather反量化算子
  • CANN/ATVC ACLNN调用示例
  • 从SPI到8080:一文搞懂MIPI DBI(Type C)如何驱动你的LCD屏并优化帧率
  • CANN/AMCT KV-Cache量化模型创建
  • 乡村全科执业医师培训机构哪个好?这份2026最新调研报告告诉你 - 医考机构品牌测评专家
  • RT2.0 动态 Shape 执行器特性分析
  • 从“算力竞赛”到“业务落地”:AI营销一体机选型的几点思考
  • Java老兵转型AI开发实战指南:收藏这份从零到精通的学习路线,小白也能快速上手大模型
  • 2026年4月靠谱的通风蝶阀厂家推荐,电动组合风阀/岗位轴流风机/吊顶式空调机组/通风蝶阀,通风蝶阀门店找哪家 - 品牌推荐师
  • 避坑指南:在CentOS7上为TensorFlow2.6搭建Python3.8环境,我踩过的那些‘依赖’雷
  • Swift-All实战:用T4显卡微调7B大模型,一小时成本不到5块钱
  • 深度学习赋能医学影像:COVID-19检测与病灶分割技术全解析