当前位置: 首页 > news >正文

AMCT ConvTranspose2dQAT API

ConvTranspose2dQAT

【免费下载链接】amctAMCT是CANN提供的昇腾AI处理器亲和的模型压缩工具仓。项目地址: https://gitcode.com/cann/amct

产品支持情况

产品是否支持
Ascend 950PR/Ascend 950DT
Atlas A3 训练系列产品/Atlas A3 推理系列产品
Atlas A2 训练系列产品/Atlas A2 推理系列产品

功能说明

构造ConvTranspose2d的QAT算子。

函数原型

  • 直接构造接口:

    qat = amct_pytorch.nn.module.quantization.conv_transpose_2d.ConvTranspose2dQAT(in_channels, out_channels, kernel_size, stride, padding, dilation, groups, bias, padding_mode, device, dtype, config)
  • 基于原生算子构造接口:

    qat = amct_pytorch.nn.module.quantization.conv_transpose_2d.ConvTranspose2dQAT.from_float(mod, config)

参数说明

表 1直接构造接口参数说明

参数名

输入/输出

说明

in_channels

输入

含义:输入channel个数。

数据类型:int

out_channels

输入

含义:输出channel个数。

数据类型:int

kernel_size

输入

含义:卷积核大小。

数据类型:int/tuple

stride

输入

含义:卷积步长。

数据类型:int/tuple

默认值:1

padding

输入

含义:填充大小。

数据类型:int/tuple

默认值:0

dilation

输入

含义:kernel元素之间的间距。

数据类型:int/tuple

默认值:1

groups

输入

含义:输入和输出的连接关系。

数据类型:int

默认值:1

bias

输入

含义:是否开启偏置项参与学习。

数据类型:bool,其他数据类型(比如整数,字符串,列表等)按照Python真值判断规则转换。

默认值:True

padding_mode

输入

含义:填充方式。

使用约束:仅支持zeros

device

输入

含义:运行设备。

默认值:None

dtype

输入

含义:torch数值类型。

torch数据类型,仅支持torch.float32

config

输入

含义:量化配置,配置参考样例如下,量化配置参数的具体说明请参见量化配置参数说明

config = { "retrain_enable":true, "retrain_data_config": { "dst_type": "INT8", "batch_num": 10, "fixed_min": False, "clip_min": -1.0, "clip_max": 1.0 }, "retrain_weight_config": { "dst_type": "INT8", "weights_retrain_algo": "arq_retrain", "channel_wise": False } }

数据类型:dict

默认值:None

表 2基于原生算子构造接口

参数名

输入/输出

说明

mod

输入

含义:待量化的原生ConvTranspose2d算子。

数据类型:torch.nn.Module

config

输入

含义:量化配置。配置参考样例如下,量化配置参数的具体说明请参见量化配置参数说明。

config = { "retrain_enable":true, "retrain_data_config": { "dst_type": "INT8", "batch_num": 10, "fixed_min": False, "clip_min": -1.0, "clip_max": 1.0 }, "retrain_weight_config": { "dst_type": "INT8", "weights_retrain_algo": "arq_retrain", "channel_wise": False } }

数据类型:dict

默认值:None

返回值说明

  • 直接构造:返回构造的QAT单算子实例。
  • 基于原生算子构造:torch.nn.Module转化后的QAT单算子。

调用示例

  • 直接构造:

    from amct_pytorch.nn.module.quantization.conv_transpose_2d import ConvTranspose2dQAT ConvTranspose2dQAT(in_channels=1, out_channels=1, kernel_size=1, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None, config=None)
  • 基于原生算子构造:

    import torch from amct_pytorch.nn.module.quantization.conv_transpose_2d import ConvTranspose2dQAT conv_transpose2d_op = torch.nn.ConvTranspose2d(in_channels=1, out_channels=1, kernel_size=1, stride=1, padding=0, dilation=1, groups=1, bias=True, padding_mode='zeros', device=None, dtype=None) ConvTranspose2dQAT.from_float(mod=conv_transpose2d_op, config=None)

【免费下载链接】amctAMCT是CANN提供的昇腾AI处理器亲和的模型压缩工具仓。项目地址: https://gitcode.com/cann/amct

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

http://www.jsqmd.com/news/787896/

相关文章:

  • 我用AI重构了一个遗留系统,代码量减少了70%,老板惊呆了
  • 抖音批量下载神器:3分钟掌握无水印视频下载全攻略
  • XHS-Downloader终极指南:小红书内容采集与批量下载技术详解
  • Photon引擎:基于Vite与Rust工具链的极速Web开发体验
  • CANN/Ascend C AsyncGetTensorC函数
  • CANN/Hunyuan3D昇腾适配
  • cann/cann-bench CrossEntropyLoss算子API描述
  • 算法模拟与生命智能:从架构差异看AI的本质与局限
  • CANN/ops-nn硬Sigmoid反向传播算子
  • 命令行办公自动化:officecli-skills技能库实战指南
  • ARM虚拟处理器模型在无线设备开发中的关键作用
  • 房价预测项目:自己手写线性回归,值不值?
  • AI赋能食品工业:从合成生物学到智能制造的全面革新
  • Datadog Cursor插件:用自然语言对话查询监控数据的完整指南
  • CANN/pyasc算子编程接口
  • 3PEAK思瑞浦 LM2902A-TS2R-S TSSOP14 运算放大器
  • Meta广告AI代理实战:基于MCP协议构建自动化广告管理工具
  • Animal-AI环境:用强化学习复现动物认知实验,评估AI智能水平
  • 智能代理框架ProxyAI:AI赋能API网关与微服务架构实践
  • 集成学习在药物虚拟筛选中的应用:构建稳健AI预测模型
  • 基于FNN与XAI的微射流速度预测及气泡位置影响机制研究
  • 3PEAK思瑞浦 TPA3672-SO1R SOP8 运算放大器
  • SEO地理优化利器:hreflang与JSON-LD实战指南
  • AI赋能密度泛函理论:量子张量学习与机器学习泛函实践
  • 抖音内容下载终极指南:从零开始构建你的专属素材库
  • 动物森友会存档编辑器NHSE:终极完整指南与实战教程
  • AI驱动蛋白质工程:机器学习与拓扑数据分析的融合实践
  • AI接管运维:工程师秒变甩手掌柜
  • 5分钟掌握qmc-decoder:终极QQ音乐加密格式解密指南
  • 华为CANN通信远端内存API