当前位置: 首页 > news >正文

CANN/sip Ctrmv矩阵向量乘法

Ctrmv

【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip

产品支持情况

产品是否支持
Atlas 200I/500 A2 推理产品×
Atlas 推理系列产品×
Atlas 训练系列产品×
Atlas A3 训练系列产品/Atlas A3 推理系列产品
Atlas A2 训练系列产品/Atlas A2 推理系列产品
Ascend 950PR/Ascend 950DT×

功能说明

  • 接口功能:
    asdBlasMakeCtrmvPlan:初始化该句柄对应的Ctrmv算子配置。
    asdBlasCtrmv:单精度复数矩阵向量乘法算子,用于计算一个复数三角矩阵与一个复数向量的乘积。
  • 计算公式:
    • 矩阵向量乘积 $$ x = A * x $$
    • 转置矩阵向量乘积 $$ x = A^T * x $$
    • 共轭转置矩阵向量乘积 $$ x = A^H * x $$ 示例:
      输入“A”为:
      [[ 1+2i, 1+2i ],
      [ 1+2i, 1+2i ]]
      输入“X”为:
      [ [ 0+0i, 1+i ] ]
      输入“uplo”为:L,输入“trans”为:N,输入“diag”为:N。
      输入“n”为:2,输入“lda”为:2,输入“incx”为: 1。
      调用asdBlasCtrmv算子后,输出“x”为:
      [ [ 0+0i, -1+3i ] ]

函数原型

AspbStatus asdBlasMakeCtrmvPlan( asdBlasHandle handle, asdBlasFillMode_t uplo, int64_t n)
AspbStatus asdBlasCtrmv( asdBlasHandle handle, asdBlasFillMode_t uplo, asdBlasOperation_t trans, asdBlasDiagType_t diag, const int64_t n, aclTensor * A, const int64_t lda, aclTensor * x, const int64_t incx)

asdBlasMakeCtrmvPlan

  • 参数说明:

    参数名输入/输出描述
    handle(asdBlasHandle)输入算子的句柄。
    uplo(asdBlasFillMode_t)输入指定矩阵A的存储格式。
    • ASDBLAS_FILL_MODE_LOWER:下三角
    • ASDBLAS_FILL_MODE_UPPER:上三角
    n(int64_t)输入矩阵A的阶数,向量x的维度。
  • 返回值

    返回状态码,具体参见SiP返回码。

asdBlasCtrmv

  • 参数说明:

    参数名输入/输出描述
    handle(asdBlasHandle)输入算子的句柄
    uplo(asdBlasFillMode_t)输入指定矩阵A的存储格式。
    • ASDBLAS_FILL_MODE_LOWER:下三角
    • ASDBLAS_FILL_MODE_UPPER:上三角
    trans(asdBlasDiagType_t)输入指定矩阵A是否需要转置。
    • ASDBLAS_OP_N :不转置
    • ASDBLAS_OP_T :转置
    • ASDBLAS_OP_C:上共轭转置
    diag(asdBlasDiagType_t)输入指定矩阵A的对角元素处理方式。
    • ASDBLAS_DIAG_NON_UNIT:一般矩阵
    • ASDBLAS_DIAG_UNIT:单位矩阵
    n(int64_t)输入矩阵A的阶数,向量x的维度。
    A(aclTensor *)输入
    • 对应公式中的'A'。
    • 数据类型支持COMPLEX64。
    • 数据格式支持ND。
    • shape为[n,n]
    x(aclTensor *)输入/输出
    • 对应公式中的'x'。
    • 数据类型支持COMPLEX64。
    • 数据格式支持ND。
    • shape为[n]
    lda(int64_t)输入矩阵A的第一个维度大小。
    incx(int64_t)输入向量x中元素的步长。
  • 返回值

    返回状态码,具体参见SiP返回码。

约束说明

  • 输入的元素个数n当前覆盖支持[1,8192]。
  • 算子输入shape为[n,n]、[n],输出shape为[n]。
  • 算子实际计算时,不支持ND高维度运算(不支持维度≥3的运算)。

调用示例

示例代码如下,该样例旨在提供快速上手、开发和调试算子的最小化实现,其核心目标是使用最精简的代码展示算子的核心功能,而非提供生产级的安全保障。不推荐用户直接将示例代码作为业务代码,若用户将示例代码应用在自身的真实业务场景中且发生了安全问题,则需用户自行承担。

  • asdBlasCtrmv
#include <iostream> #include <vector> #include "asdsip.h" #include "acl/acl.h" #include "acl_meta.h" using namespace AsdSip; #define ASD_STATUS_CHECK(err) \ do { \ AsdSip::AspbStatus err_ = (err); \ if (err_ != AsdSip::ErrorType::ACL_SUCCESS) { \ std::cout << "Execute failed." << std::endl; \ exit(-1); \ } \ } while (0) #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) int64_t GetShapeSize(const std::vector<int64_t> &shape) { int64_t shapeSize = 1; for (auto i : shape) { shapeSize *= i; } return shapeSize; } int Init(int32_t deviceId, aclrtStream *stream) { // 固定写法,acl初始化 auto ret = aclInit(nullptr); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclInit failed. ERROR: %d\n", ret); return ret); ret = aclrtSetDevice(deviceId); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtSetDevice failed. ERROR: %d\n", ret); return ret); ret = aclrtCreateStream(stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtCreateStream failed. ERROR: %d\n", ret); return ret); return 0; } template <typename T> int CreateAclTensor(const std::vector<T> &hostData, const std::vector<int64_t> &shape, void **deviceAddr, aclDataType dataType, aclTensor **tensor) { auto size = GetShapeSize(shape) * sizeof(T); // 调用aclrtMalloc申请device侧内存 auto ret = aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMalloc failed. ERROR: %d\n", ret); return ret); // 调用aclrtMemcpy将host侧数据复制到device侧内存上 ret = aclrtMemcpy(*deviceAddr, size, hostData.data(), size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMemcpy failed. ERROR: %d\n", ret); return ret); // 计算连续tensor的strides std::vector<int64_t> strides(shape.size(), 1); for (int64_t i = shape.size() - 2; i >= 0; i--) { strides[i] = shape[i + 1] * strides[i + 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor = aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } int main(int argc, char **argv) { int deviceId = 0; aclrtStream stream; auto ret = Init(deviceId, &stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("Init acl failed. ERROR: %d\n", ret); return ret); int64_t n = 4; int64_t incx = 1; int64_t lda = 4; asdBlasFillMode_t uplo = asdBlasFillMode_t::ASDBLAS_FILL_MODE_LOWER; asdBlasOperation_t trans = asdBlasOperation_t::ASDBLAS_OP_N; asdBlasDiagType_t diag = asdBlasDiagType_t::ASDBLAS_DIAG_NON_UNIT; int64_t tensorXSize = 4; std::vector<std::complex<float>> tensorInXData; tensorInXData.reserve(tensorXSize); for (int64_t i = 0; i < tensorXSize; i++) { tensorInXData[i] = {(float)(1.0 * i), (float)(1.0 * i)}; } int64_t tensorASize = n * n; std::vector<std::complex<float>> tensorInAData; tensorInAData.reserve(tensorASize); for (int64_t i = 0; i < n; i++) { for (int64_t j = 0; j < n; j++) { tensorInAData[n * i + j] = {0.0, 0.0}; } } for (int64_t i = 0; i < n; i++) { for (int64_t j = 0; j < i + 1; j++) { tensorInAData[n * i + j] = {1.0, 2.0}; } } std::cout << "------- input x -------" << std::endl; for (int64_t i = 0; i < n; i++) { std::cout << tensorInXData[i] << " "; } std::cout << std::endl; std::cout << "------- input A -------" << std::endl; for (int64_t i = 0; i < n; i++) { for (int64_t j = 0; j < n; j++) { std::cout << tensorInAData[n * i + j] << " "; } std::cout << std::endl; } std::vector<int64_t> aShape = {tensorASize}; std::vector<int64_t> xShape = {tensorXSize}; aclTensor *inputA = nullptr; aclTensor *inputX = nullptr; void *inputADeviceAddr = nullptr; void *inputXDeviceAddr = nullptr; ret = CreateAclTensor(tensorInAData, aShape, &inputADeviceAddr, aclDataType::ACL_COMPLEX64, &inputA); CHECK_RET(ret == ::ACL_SUCCESS, return ret); ret = CreateAclTensor(tensorInXData, xShape, &inputXDeviceAddr, aclDataType::ACL_COMPLEX64, &inputX); CHECK_RET(ret == ::ACL_SUCCESS, return ret); asdBlasHandle handle; asdBlasCreate(handle); size_t lwork = 0; void *buffer = nullptr; asdBlasMakeCtrmvPlan(handle, uplo, n); asdBlasGetWorkspaceSize(handle, lwork); std::cout << "lwork = " << lwork << std::endl; if (lwork > 0) { ret = aclrtMalloc(&buffer, static_cast<int64_t>(lwork), ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("allocate workspace failed. ERROR: %d\n", ret); return ret); } asdBlasSetWorkspace(handle, buffer); asdBlasSetStream(handle, stream); ASD_STATUS_CHECK(asdBlasCtrmv(handle, uplo, trans, diag, n, inputA, lda, inputX, incx)); asdBlasSynchronize(handle); asdBlasDestroy(handle); ret = aclrtMemcpy(tensorInXData.data(), tensorXSize * sizeof(std::complex<float>), inputXDeviceAddr, tensorXSize * sizeof(std::complex<float>), ACL_MEMCPY_DEVICE_TO_HOST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("copy tensor x from device to host failed. ERROR: %d\n", ret); return ret); std::cout << "------- result -------" << std::endl; for (int64_t i = 0; i < n; i++) { std::cout << tensorInXData[i] << " "; } std::cout << std::endl; std::cout << "Execute successfully." << std::endl; aclDestroyTensor(inputA); aclDestroyTensor(inputX); aclrtFree(inputADeviceAddr); aclrtFree(inputXDeviceAddr); aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }

【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

http://www.jsqmd.com/news/785526/

相关文章:

  • 安全关键领域可解释AI:从技术原理到人机协同的实践指南
  • Python零基础如何快速调用大模型API,使用Taotoken实现OpenAI兼容接入
  • TPU-MLIR:从模型到芯片的AI编译器实战解析
  • CANN/CATLASS性能调优指南
  • Ubuntu20.04下PX4 v1.13与XTDrone联调避坑实录:从源码编译到Gazebo黑屏全解决
  • FPGA SPI驱动设计避坑指南:以DAC8830为例,聊聊时钟分频与数据对齐的那些事儿
  • 量子计算硬件封装技术:低温适配与材料挑战
  • CANN/graph-autofusion安全声明
  • Python声明式数据抓取:openclaw-py工具库的设计理念与实战应用
  • AI编程助手Cursor开源生态实践:智能体配置与自动化工作流
  • ESP32+合宙1.8寸屏保姆级教程:MicroPython驱动ST7735显示中文(附固件与字体)
  • CANN/metadef Build函数API文档
  • 20个AI/ML创意项目实践:从建构主义学习到核心技能掌握
  • CANN/hcomm 通信引擎
  • Shadow Hand灵巧手维修日记:手指PST传感器更换全记录(附肌腱线处理技巧)
  • 测试90测试90测试90测试90测试90
  • 从零构建Llama 3:深入理解大语言模型架构与训练全流程
  • EXPLAIN-从入门到精通-数据库优化必备神器
  • Positive AI:从功能驱动到福祉驱动的AI设计范式与实践
  • CANN/tensorflow安全声明
  • 别再喊 PG 完爆 MySQL 了:阿里京东美团业务库都用 MySQL,不是他们没看 PG
  • ESP32-S3驱动ST7735彩屏:从零到亮的保姆级配置指南(附完整接线图)
  • CANN/sip交换向量示例
  • 第 4 章:模块与包管理
  • 量子计算动态解耦技术:原理、实现与应用
  • 基于Playwright的浏览器自动化技能库:从模块化封装到实战应用
  • 开源OSINT工具iGotcha:模块化数字痕迹追踪与信息聚合实战
  • 大模型评测中的多样性挑战:从标准化基准到公平评估的实践路径
  • AI技术博客实战:从资讯编译到深度文章的全流程解析
  • 告别点灯调试:用Arduino和TM1629A快速搭建一个多功能显示仪表盘