当前位置: 首页 > news >正文

CANN/ops-cv Im2col反向传播算子

aclnnIm2colBackward

【免费下载链接】ops-cv本项目是CANN提供的图像处理、目标检测相关的算子库,实现网络在NPU上加速计算。项目地址: https://gitcode.com/cann/ops-cv

📄 查看源码

产品支持情况

产品是否支持
Ascend 950PR/Ascend 950DT
Atlas A3 训练系列产品/Atlas A3 推理系列产品
Atlas A2 训练系列产品/Atlas A2 推理系列产品
Atlas 200I/500 A2 推理产品×
Atlas 推理系列产品×
Atlas 训练系列产品×

功能说明

  • 算子功能:从批处理输入张量中提取滑动局部块,将滑动局部块数组合并为一个大张量。

  • 计算公式:

    考虑一个形状为 $(N,C,)$的批处理input张量,其中$N$是批处理维度,$C$是通道维度,而$$表示任意空间维度。

    此操作将input空间维度内的每个滑动kernel_size大小的块展平为形状是$(N,C×\prod(kernel_size),L)$ 的 3-D output张量的列(即最后一维)。

    其中:

    • $C×\prod(kernel_size)$ 是每个块内的值的数量(一个块有$\prod(kernel_size)$ 个空间位置,每个空间位置都包含一个$C$ 通道向量),而$L$是这些块的总数:

      $$ L=\prod_d⌊{\frac{spatial_size[d]+2×padding[d]−dilation[d]×(kernel_size[d]−1)−1}{stride[d]}+1}⌋ $$

    • spatial_size由input(上面的$*$)的空间维度构成,而$d$覆盖所有空间维度。 因此,在最后一个维度(列维度)索引,output会给出某个块内的所有值。

函数原型

每个算子分为两段式接口,必须先调用“aclnnIm2colBackwardGetWorkspaceSize”接口获取计算所需workspace大小以及包含了算子计算流程的执行器,再调用“aclnnIm2colBackward”接口执行计算。

aclnnStatus aclnnIm2colBackwardGetWorkspaceSize( const aclTensor *gradOutput, const aclIntArray *inputSize, const aclIntArray *kernelSize, const aclIntArray *dilation, const aclIntArray *padding, const aclIntArray *stride, aclTensor *out, uint64_t *workspaceSize, aclOpExecutor **executor)
aclnnStatus aclnnIm2colBackward( void *workspace, uint64_t workspaceSize, aclOpExecutor *executor, aclrtStream stream)

aclnnIm2colBackwardGetWorkspaceSize

  • 参数说明

    参数名输入/输出描述使用说明数据类型数据格式维度(shape)非连续tensor
    gradOutput输入输入tensor。shape为(C×kernel_size[0]×kernel_size[1],L)或(N,C×kernel_size[0]×kernel_size[1],L)。BFLOAT16、FLOAT16、FLOATND支持2维和3维
    inputSize输入输入张量的形状。值大于0。INT64---
    kernelSize输入卷积核的大小。值大于0。INT64---
    dilation输入膨胀参数。值大于0。INT64---
    padding输入卷积的填充大小。值大于等于0。INT64---
    stride输入卷积的步长。值大于0。INT64---
    out输出输出tensor。shape为(C,spatial_size[0],spatial_size[1])或(N,C,spatial_size[0],spatial_size[1])。BFLOAT16、FLOAT16、FLOATND支持3维和4维,且维度比gradOutput的大1。
    workspaceSize输出返回用户需要在Device侧申请的workspace大小。-----
    executor输出返回op执行器,包含了算子计算流程。-----
  • 返回值

    aclnnStatus:返回状态码,具体参见aclnn返回码。

    第一段接口完成入参校验,出现以下场景时报错:

    返回值错误码描述
    ACLNN_ERR_PARAM_NULLPTR161001传入的gradOutput、inputSize、kernelSize、dilation、padding、stride或out是空指针。
    ACLNN_ERR_PARAM_INVALID161002gradOutput的数据类型不在支持的范围之内。
    gradOutput的维度不是2维且不是3维。
    gradOutput是2维时,out不是3维;gradOutput是3维时,out不是4维。
    inputSize、kernelSize、dilation、padding或stride的size不为2。
    kernelSize、dilation或stride存在值等于或小于0的元素。
    padding存在值小于0的元素。
    gradOutput的shape不符合参数说明中的shape。
    out的shape不符合参数说明中的shape。

aclnnIm2colBackward

  • 参数说明

    参数名输入/输出描述
    workspace输入在 Device 侧申请的 workspace 内存地址。
    workspaceSize输入在Device侧申请的workspace大小,由第一段接口aclnnIm2colBackwardGetWorkspaceSize获取。
    executor输入op 执行器,包含了算子计算流程。
    stream输入指定执行任务的 Stream。
  • 返回值

    aclnnStatus:返回状态码,具体参见aclnn返回码。

约束说明

无。

调用示例

示例代码如下,仅供参考,具体编译和执行过程请参考编译与运行样例。

#include <iostream> #include <vector> #include "acl/acl.h" #include "aclnnop/aclnn_im2col_backward.h" #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) int64_t GetShapeSize(const std::vector<int64_t>& shape) { int64_t shapeSize = 1; for (auto i : shape) { shapeSize *= i; } return shapeSize; } int Init(int32_t deviceId, aclrtStream* stream) { // 固定写法,资源初始化 auto ret = aclInit(nullptr); CHECK_RET(ret == ACL_SUCCESS, LOG_PRINT("aclInit failed. ERROR: %d\n", ret); return ret); ret = aclrtSetDevice(deviceId); CHECK_RET(ret == ACL_SUCCESS, LOG_PRINT("aclrtSetDevice failed. ERROR: %d\n", ret); return ret); ret = aclrtCreateStream(stream); CHECK_RET(ret == ACL_SUCCESS, LOG_PRINT("aclrtCreateStream failed. ERROR: %d\n", ret); return ret); return 0; } template <typename T> int CreateAclTensor(const std::vector<T>& hostData, const std::vector<int64_t>& shape, void** deviceAddr, aclDataType dataType, aclTensor** tensor) { auto size = GetShapeSize(shape) * sizeof(T); // 调用aclrtMalloc申请device侧内存 auto ret = aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ACL_SUCCESS, LOG_PRINT("aclrtMalloc failed. ERROR: %d\n", ret); return ret); // 调用aclrtMemcpy将host侧数据拷贝到device侧内存上 ret = aclrtMemcpy(*deviceAddr, size, hostData.data(), size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret == ACL_SUCCESS, LOG_PRINT("aclrtMemcpy failed. ERROR: %d\n", ret); return ret); // 计算连续tensor的strides std::vector<int64_t> strides(shape.size(), 1); for (int64_t i = shape.size() - 2; i >= 0; i--) { strides[i] = shape[i + 1] * strides[i + 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor = aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } int main() { // 1. (固定写法)device/stream初始化,参考acl API手册 // 根据自己的实际device填写deviceId int32_t deviceId = 0; aclrtStream stream; auto ret = Init(deviceId, &stream); CHECK_RET(ret == ACL_SUCCESS, LOG_PRINT("Init acl failed. ERROR: %d\n", ret); return ret); // 2. 构造输入与输出,需要根据API的接口自定义构造 std::vector<int64_t> gradShape = {4, 2}; std::vector<int64_t> outShape = {1, 1, 1}; void* gradDeviceAddr = nullptr; void* outDeviceAddr = nullptr; aclTensor* grad = nullptr; aclIntArray* inputSize = nullptr; aclIntArray* kernelSize = nullptr; aclIntArray* dilation = nullptr; aclIntArray* padding = nullptr; aclIntArray* stride = nullptr; aclTensor* out = nullptr; std::vector<float> gradHostData = {0.1, 1.1, 2.1, 3.1, 4.1, 5.1, 6.1, 7.1}; std::vector<int64_t> inputSizeData = {1, 1}; std::vector<int64_t> kernelSizeData = {2, 2}; std::vector<int64_t> dilationData = {1, 1}; std::vector<int64_t> paddingData = {1, 1}; std::vector<int64_t> strideData = {1, 2}; std::vector<float> outHostData = {0.0}; // 创建grad aclTensor ret = CreateAclTensor(gradHostData, gradShape, &gradDeviceAddr, aclDataType::ACL_FLOAT, &grad); CHECK_RET(ret == ACL_SUCCESS, return ret); // 创建out aclTensor ret = CreateAclTensor(outHostData, outShape, &outDeviceAddr, aclDataType::ACL_FLOAT, &out); CHECK_RET(ret == ACL_SUCCESS, return ret); // 创建aclIntArray inputSize = aclCreateIntArray(inputSizeData.data(), 2); CHECK_RET(inputSize != nullptr, return ret); kernelSize = aclCreateIntArray(kernelSizeData.data(), 2); CHECK_RET(kernelSize != nullptr, return ret); dilation = aclCreateIntArray(dilationData.data(), 2); CHECK_RET(dilation != nullptr, return ret); padding = aclCreateIntArray(paddingData.data(), 2); CHECK_RET(padding != nullptr, return ret); stride = aclCreateIntArray(strideData.data(), 2); CHECK_RET(stride != nullptr, return ret); // 3. 调用CANN算子库API,需要修改为具体的Api名称 uint64_t workspaceSize = 0; aclOpExecutor* executor; // 调用aclnnIm2colBackward第一段接口 ret = aclnnIm2colBackwardGetWorkspaceSize(grad, inputSize, kernelSize, dilation, padding, stride, out, &workspaceSize, &executor); CHECK_RET(ret == ACL_SUCCESS, LOG_PRINT("aclnnIm2colBackwardGetWorkspaceSize failed. ERROR: %d\n", ret); return ret); // 根据第一段接口计算出的workspaceSize申请device内存 void* workspaceAddr = nullptr; if (workspaceSize > 0) { ret = aclrtMalloc(&workspaceAddr, workspaceSize, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ACL_SUCCESS, LOG_PRINT("allocate workspace failed. ERROR: %d\n", ret); return ret); } // 调用aclnnIm2colBackward第二段接口 ret = aclnnIm2colBackward(workspaceAddr, workspaceSize, executor, stream); CHECK_RET(ret == ACL_SUCCESS, LOG_PRINT("aclnnIm2colBackward failed. ERROR: %d\n", ret); return ret); // 4. (固定写法)同步等待任务执行结束 ret = aclrtSynchronizeStream(stream); CHECK_RET(ret == ACL_SUCCESS, LOG_PRINT("aclrtSynchronizeStream failed. ERROR: %d\n", ret); return ret); // 5. 获取输出的值,将device侧内存上的结果拷贝至host侧,需要根据具体API的接口定义修改 auto size = GetShapeSize(outShape); std::vector<float> resultData(size, 0); ret = aclrtMemcpy(resultData.data(), resultData.size() * sizeof(resultData[0]), outDeviceAddr, size * sizeof(resultData[0]), ACL_MEMCPY_DEVICE_TO_HOST); CHECK_RET(ret == ACL_SUCCESS, LOG_PRINT("copy result from device to host failed. ERROR: %d\n", ret); return ret); for (int64_t i = 0; i < size; i++) { LOG_PRINT("result[%ld] is: %f\n", i, resultData[i]); } // 6. 释放aclTensor和aclIntArray,需要根据具体API的接口定义修改 aclDestroyTensor(grad); aclDestroyIntArray(inputSize); aclDestroyIntArray(kernelSize); aclDestroyIntArray(dilation); aclDestroyIntArray(padding); aclDestroyIntArray(stride); aclDestroyTensor(out); // 7. 释放device资源,需要根据具体API的接口定义修改 aclrtFree(gradDeviceAddr); aclrtFree(outDeviceAddr); if (workspaceSize > 0) { aclrtFree(workspaceAddr); } aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }

【免费下载链接】ops-cv本项目是CANN提供的图像处理、目标检测相关的算子库,实现网络在NPU上加速计算。项目地址: https://gitcode.com/cann/ops-cv

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

http://www.jsqmd.com/news/783630/

相关文章:

  • 深圳全居邦防水工程:深圳地下室防水公司推荐 - LYL仔仔
  • CANN驱动设备启动状态查询API
  • 2026年郑州装修公司哪家好?这份对比评测帮你避坑选对 - 品牌种草官
  • 别再乱扫了!AWVS 15.2/15.4破解版在Windows和Kali下的保姆级安装与避坑指南
  • CANN/ops-cv算子示例指南
  • 别再傻傻改代码了!用正点原子USMART组件,串口直接调函数真香
  • 2026年武汉消防排烟风机源头厂家深度选购指南 - 优质企业观察收录
  • 如何为你的智能体项目配置稳定的大模型调用环境
  • 2026工业厂房建设新纪元:净化厂房等多品类一体化定制与服务典范——西安蓝网恒星科技有限公司深度推荐 - 深度智识库
  • CANN/ATVOSS乘法运算API文档
  • 2026年北京消防排烟风机源头厂家深度选购指南|深胜博实业全线3CF认证 - 优质企业观察收录
  • 2026年北京超高层消防排烟风机方案:深胜博实业如何打破价格战陷阱 - 优质企业观察收录
  • 京东E卡回收哪里靠谱?亲测体验 - 抖抖收
  • 苏州高端定制西装指南:四家门店品牌详解 - 生活测评君
  • 弘一法师经典名句详解|送给迷茫焦虑、内耗纠结的年轻人
  • 天津波英废旧物资回收:武清区废铝废钢回收电话多少 - LYL仔仔
  • CANN计数器和缓冲约束
  • 从设备树到CAN总线:在RK3399开发板上用SPI驱动MCP2515的保姆级避坑指南
  • 2026年3月行业内正规的净化工程施工推荐分析,可定制化满足不同净化需求 - 品牌推荐师
  • CANN/hcomm HCCL通信管理器API
  • 【山东大学主办、EI稳定检索】第六届精密仪器与光学工程国际学术会议(PIOE 2026)
  • 湖北肖氏景观工程:阳新水泥制品加工怎么联系 - LYL仔仔
  • CANN/pypto双曲余弦函数
  • 代码 + Markdown知识库
  • CCAA审核员可以挂靠吗? - 众智商学院官方
  • 温岭市大溪致翔机械设备租赁:浙江吊车租赁推荐几家 - LYL仔仔
  • CANN/shmem Root Info工具指南
  • AGI赋能物联网:从数据管道到智能体网络的范式革命
  • 虚拟机创建及 Linux 系统安装
  • 2026年5月成都GEO优化服务商盘点:8家机构参考测评与选型分析 - 速递信息