当前位置: 首页 > news >正文

CANN/sip BLAS Iamax函数文档

Iamax

【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip

产品支持情况

产品是否支持
Atlas 200I/500 A2 推理产品×
Atlas 推理系列产品×
Atlas 训练系列产品×
Atlas A3 训练系列产品/Atlas A3 推理系列产品
Atlas A2 训练系列产品/Atlas A2 推理系列产品
Ascend 950PR/Ascend 950DT×

功能说明

  • 接口功能:
    asdBlasMakeIamaxPlan:初始化该句柄对应的Iamax算子配置。
    asdBlasIsamax:找到实数向量中绝对值最大的元素,并返回其索引。如果有多个元素相等,则返回其中的最小索引。
    asdBlasIcamax:找到复数向量中虚部、实部绝对值之和最大的元素,并返回其索引。如果有多个元素的绝对值之和相等,则返回最先找到的那个元素的索引。

  • 计算公式:

    • asdBlasIsamax的公式

    $$ i_{max}=argmax_{i=1}^n(|(x_{i})| ) $$

    示例: 输入“x”为: [3, 4, 4,3] 调用asdBlasIsamax算子后,输出“result”为: 2
    • asdBlasIcamax的公式

    $$ i_{max}=argmax_{i=1}^n(|Im(x_{i}) |+|Re(x_{i} )|) $$ 其中,Re(∙)表示复数的实部,Im(∙)表示复数的虚部。 示例: 输入“x”为: [3+4i,4-3i,4+2i,3-1i] 调用asdBlasIcamax算子后,输出“result”为: 1

函数原型

AspbStatus asdBlasMakeIamaxPlan( asdBlasHandle handle)
AspbStatus asdBlasIcamax( asdBlasHandle handle, const int64_t n, aclTensor * x, const int64_t incx, aclTensor * result)
AspbStatus asdBlasIsamax( asdBlasHandle handle, const int64_t n, aclTensor * x, const int64_t incx, aclTensor * result)

asdBlasMakeIamaxPlan

  • 参数说明:

    参数名输入/输出描述
    handle(asdBlasHandle)输入算子的句柄
  • 返回值

    返回状态码,具体参见SiP返回码。

asdBlasIsamax & asdBlasIcamax

  • 参数说明:

    参数名输入/输出描述
    handle(asdBlasHandle)输入算子的句柄。
    n(int64_t)输入总的元素个数。
    x(aclTensor *)输入
    • 对应公式中的'x'。
    • asdBlasIsamax支持的数据类型支持FLOAT32。
    • asdBlasIcamax支持的数据类型支持COMPLEX64。
    • 数据格式支持ND。
    • shape为[n]。
    incx(int64_t)输入x相邻元素间的内存地址偏移量(当前约束为1)。
    result(aclTensor *)输出
    • 表示输出的结果,对应公式中的'result'。
    • 数据类型支持INT32,只包含一个元素。
    • 数据格式支持ND。
    • shape为[1]。
  • 返回值

    返回状态码,具体参见SiP返回码。

约束说明

  • 输入的元素个数n,当前支持的范围为[1,6.71e+06]。
  • 算子输入shape为[n],输出shape为[1]。
  • 算子实际计算时,不支持ND高维度运算(不支持维度≥3的运算)。

调用示例

示例代码如下,该样例旨在提供快速上手、开发和调试算子的最小化实现,其核心目标是使用最精简的代码展示算子的核心功能,而非提供生产级的安全保障。不推荐用户直接将示例代码作为业务代码,若用户将示例代码应用在自身的真实业务场景中且发生了安全问题,则需用户自行承担。

  • asdBlasIsamax
#include <iostream> #include <vector> #include "asdsip.h" #include "acl/acl.h" #include "acl_meta.h" using namespace AsdSip; #define ASD_STATUS_CHECK(err) \ do { \ AsdSip::AspbStatus err_ = (err); \ if (err_ != AsdSip::ErrorType::ACL_SUCCESS) { \ std::cout << "Execute failed." << std::endl; \ exit(-1); \ } \ } while (0) #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) int64_t GetShapeSize(const std::vector<int64_t> &shape) { int64_t shapeSize = 1; for (auto i : shape) { shapeSize *= i; } return shapeSize; } int Init(int32_t deviceId, aclrtStream *stream) { // 固定写法,acl初始化 auto ret = aclInit(nullptr); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclInit failed. ERROR: %d\n", ret); return ret); ret = aclrtSetDevice(deviceId); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtSetDevice failed. ERROR: %d\n", ret); return ret); ret = aclrtCreateStream(stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtCreateStream failed. ERROR: %d\n", ret); return ret); return 0; } template <typename T> int CreateAclTensor(const std::vector<T> &hostData, const std::vector<int64_t> &shape, void **deviceAddr, aclDataType dataType, aclTensor **tensor) { auto size = GetShapeSize(shape) * sizeof(T); // 调用aclrtMalloc申请device侧内存 auto ret = aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMalloc failed. ERROR: %d\n", ret); return ret); // 调用aclrtMemcpy将host侧数据复制到device侧内存上 ret = aclrtMemcpy(*deviceAddr, size, hostData.data(), size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMemcpy failed. ERROR: %d\n", ret); return ret); // 计算连续tensor的strides std::vector<int64_t> strides(shape.size(), 1); for (int64_t i = shape.size() - 2; i >= 0; i--) { strides[i] = shape[i + 1] * strides[i + 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor = aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } int main(int argc, char **argv) { int deviceId = 0; aclrtStream stream; auto ret = Init(deviceId, &stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("Init acl failed. ERROR: %d\n", ret); return ret); int64_t n = 6; int64_t incx = 1; int64_t xSize = n; int64_t ySize = 1; std::vector<float> tensorInXData; tensorInXData.reserve(xSize); for (int64_t i = 0; i < xSize; i++) { if (i < xSize / 2) { tensorInXData[i] = 1.0 * i; } else { tensorInXData[i] = xSize - 1.0 * i; } } std::vector<int32_t> tensorOutYData; tensorOutYData.reserve(ySize); std::cout << "------- input X -------" << std::endl; for (int64_t i = 0; i < xSize; i++) { std::cout << tensorInXData[i] << " "; } std::cout << std::endl; std::vector<int64_t> xShape = {xSize}; std::vector<int64_t> yShape = {ySize}; aclTensor *inputX = nullptr; aclTensor *outputY = nullptr; void *inputXDeviceAddr = nullptr; void *outputYDeviceAddr = nullptr; ret = CreateAclTensor(tensorInXData, xShape, &inputXDeviceAddr, aclDataType::ACL_FLOAT, &inputX); CHECK_RET(ret == ::ACL_SUCCESS, return ret); ret = CreateAclTensor(tensorOutYData, yShape, &outputYDeviceAddr, aclDataType::ACL_INT32, &outputY); CHECK_RET(ret == ::ACL_SUCCESS, return ret); asdBlasHandle handle; asdBlasCreate(handle); size_t lwork = 0; void *buffer = nullptr; asdBlasMakeIamaxPlan(handle); asdBlasGetWorkspaceSize(handle, lwork); std::cout << "lwork = " << lwork << std::endl; if (lwork > 0) { ret = aclrtMalloc(&buffer, static_cast<int64_t>(lwork), ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("allocate workspace failed. ERROR: %d\n", ret); return ret); } asdBlasSetWorkspace(handle, buffer); asdBlasSetStream(handle, stream); ASD_STATUS_CHECK(asdBlasIsamax(handle, n, inputX, incx, outputY)); asdBlasSynchronize(handle); asdBlasDestroy(handle); ret = aclrtMemcpy(tensorOutYData.data(), ySize * sizeof(int32_t), outputYDeviceAddr, ySize * sizeof(int32_t), ACL_MEMCPY_DEVICE_TO_HOST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("copy result from device to host failed. ERROR: %d\n", ret); return ret); std::cout << "------- result -------" << std::endl; std::cout << tensorOutYData[0] << std::endl; std::cout << "Execute successfully." << std::endl; aclDestroyTensor(inputX); aclDestroyTensor(outputY); aclrtFree(inputXDeviceAddr); aclrtFree(outputYDeviceAddr); aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }
  • asdBlasIcamax
#include <iostream> #include <vector> #include "asdsip.h" #include "acl/acl.h" #include "acl_meta.h" using namespace AsdSip; #define ASD_STATUS_CHECK(err) \ do { \ AsdSip::AspbStatus err_ = (err); \ if (err_ != AsdSip::ErrorType::ACL_SUCCESS) { \ std::cout << "Execute failed." << std::endl; \ exit(-1); \ } \ } while (0) #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) int64_t GetShapeSize(const std::vector<int64_t> &shape) { int64_t shapeSize = 1; for (auto i : shape) { shapeSize *= i; } return shapeSize; } int Init(int32_t deviceId, aclrtStream *stream) { // 固定写法,acl初始化 auto ret = aclInit(nullptr); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclInit failed. ERROR: %d\n", ret); return ret); ret = aclrtSetDevice(deviceId); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtSetDevice failed. ERROR: %d\n", ret); return ret); ret = aclrtCreateStream(stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtCreateStream failed. ERROR: %d\n", ret); return ret); return 0; } template <typename T> int CreateAclTensor(const std::vector<T> &hostData, const std::vector<int64_t> &shape, void **deviceAddr, aclDataType dataType, aclTensor **tensor) { auto size = GetShapeSize(shape) * sizeof(T); // 调用aclrtMalloc申请device侧内存 auto ret = aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMalloc failed. ERROR: %d\n", ret); return ret); // 调用aclrtMemcpy将host侧数据复制到device侧内存上 ret = aclrtMemcpy(*deviceAddr, size, hostData.data(), size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMemcpy failed. ERROR: %d\n", ret); return ret); // 计算连续tensor的strides std::vector<int64_t> strides(shape.size(), 1); for (int64_t i = shape.size() - 2; i >= 0; i--) { strides[i] = shape[i + 1] * strides[i + 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor = aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } int main(int argc, char **argv) { int deviceId = 0; aclrtStream stream; auto ret = Init(deviceId, &stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("Init acl failed. ERROR: %d\n", ret); return ret); int64_t n = 6; int64_t incx = 1; int64_t xSize = 6; int64_t ySize = 1; std::vector<std::complex<float>> tensorInXData; tensorInXData.reserve(xSize); for (int64_t i = 0; i < xSize; i++) { if (i < xSize / 2) { tensorInXData[i] = {(float)(1.0 * i), (float)(1.0 * i)}; } else { tensorInXData[i] = {(float)(xSize - 1.0 * i), (float)(xSize - 1.0 * i)}; } } std::vector<int32_t> tensorOutYData; tensorOutYData.reserve(ySize); std::cout << "n: " << n << std::endl; std::cout << "------- input x -------" << std::endl; for (int64_t i = 0; i < xSize; i++) { std::cout << tensorInXData[i] << " "; } std::cout << std::endl; std::vector<int64_t> xShape = {xSize}; std::vector<int64_t> yShape = {ySize}; aclTensor *inputX = nullptr; aclTensor *outputY = nullptr; void *inputXDeviceAddr = nullptr; void *outputYDeviceAddr = nullptr; ret = CreateAclTensor(tensorInXData, xShape, &inputXDeviceAddr, aclDataType::ACL_COMPLEX64, &inputX); CHECK_RET(ret == ::ACL_SUCCESS, return ret); ret = CreateAclTensor(tensorOutYData, yShape, &outputYDeviceAddr, aclDataType::ACL_INT32, &outputY); CHECK_RET(ret == ::ACL_SUCCESS, return ret); asdBlasHandle handle; asdBlasCreate(handle); size_t lwork = 0; void *buffer = nullptr; asdBlasMakeIamaxPlan(handle); asdBlasGetWorkspaceSize(handle, lwork); std::cout << "lwork = " << lwork << std::endl; if (lwork > 0) { ret = aclrtMalloc(&buffer, static_cast<int64_t>(lwork), ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("allocate workspace failed. ERROR: %d\n", ret); return ret); } asdBlasSetWorkspace(handle, buffer); asdBlasSetStream(handle, stream); ASD_STATUS_CHECK(asdBlasIcamax(handle, n, inputX, incx, outputY)); asdBlasSynchronize(handle); asdBlasDestroy(handle); ret = aclrtMemcpy(tensorOutYData.data(), ySize * sizeof(int32_t), outputYDeviceAddr, ySize * sizeof(int32_t), ACL_MEMCPY_DEVICE_TO_HOST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("copy result from device to host failed. ERROR: %d\n", ret); return ret); std::cout << "------- result -------" << std::endl; std::cout << tensorOutYData[0] << std::endl; std::cout << "Execute successfully." << std::endl; aclDestroyTensor(inputX); aclDestroyTensor(outputY); aclrtFree(inputXDeviceAddr); aclrtFree(outputYDeviceAddr); aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }

【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

http://www.jsqmd.com/news/784184/

相关文章:

  • Swift测试技能库:模块化设计、异步测试与SwiftUI集成实践
  • CTP-API实战避坑:用Python处理报单与成交回报的顺序问题(附完整代码)
  • 2026年昆明代理记账与企业财税服务深度横评|云南工商变更一站式解决方案 - 年度推荐企业名录
  • 保姆级教程:用Python 3.9和OpenXLab CLI/SDK下载AI数据集(附ImageNet-21k实战)
  • AI搜索引流排行榜|2026实测盘点,做AI引流必参考 - FaiscoJeff
  • Argo CD实战指南:基于GitOps的Kubernetes持续交付核心原理与生产级部署
  • 达梦常见问题2
  • AI驱动的物联网数据质量评估与增强:从原理到工程实践
  • IP6537 集成 Type-C PD3.0(PPS)等 14 种快充协议的降压 SoC
  • 选对仪器事半功倍 日立原子吸收仪领跑工业检测 - 博客万
  • 2026年收纳整理家居神器京东代运营十大品牌专业深度测评与排名前五权威发布 - 电商资讯
  • 2026年数据经营分析平台选型,智慧大脑企业推荐合集 - 讯息观点
  • 别再只盯着NFC卡了!聊聊CCC数字钥匙里那个关键的‘身份证’——AID
  • 别再让浮点运算拖慢你的STM32F4!手把手教你开启M4内核的FPU并配置CMSIS-DSP库
  • Claude API 频繁报 529 overloaded_error 怎么解决?(踩坑3天的真实记录)
  • 2026年西北印刷行业深度横评:西安画册印刷厂、台历挂历与广告扇定制一站式解决方案 - 企业名录优选推荐
  • 推荐几家信誉好的行车式刮吸泥机公司,哪个品牌好?哪家实力强?哪家售后服务好? - 品牌推荐大师1
  • Xata Agent:基于大语言模型的PostgreSQL智能运维助手实战指南
  • Dotfiles开发环境配置管理:自动化部署与跨平台一致性实践
  • 创业公司如何利用多模型聚合能力低成本验证AI产品创意
  • 3步掌握DownKyi:B站视频下载的完整免费教程
  • 3步实战指南:如何为DeepSeek集成项目构建健壮的配置管理系统
  • taotoken在多模型aigc内容生成项目中的实践方案
  • 绍兴富呈机械设备租赁:绍兴靠谱的设备搬运公司电话 - LYL仔仔
  • 大型语言模型推理标记的本质与SoT框架解析
  • 基于MAE的遥感基础模型:从预训练到地球科学任务微调实战
  • 国产工业相机选型要点:主要参数及品牌对比
  • 2026年5月多级泵品牌TOP3榜单:自平衡多级泵、不锈钢多级泵、卧式多级泵、耐腐蚀多级泵供应商精选 - 品牌推荐大师1
  • EtherCAT模块助力汽车产线智能化升级实现ABB机器人与倍福PLC通讯
  • 青岛精神心理健康诊疗机构盘点:如何选择适合的医院? - 品牌排行榜