当前位置: 首页 > news >正文

cann/sip FFT逆短时傅里叶变换

Istft

【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip

产品支持情况

产品是否支持
Atlas 200I/500 A2 推理产品×
Atlas 推理系列产品×
Atlas 训练系列产品×
Atlas A3 训练系列产品/Atlas A3 推理系列产品
Atlas A2 训练系列产品/Atlas A2 推理系列产品
Ascend 950PR/Ascend 950DT×

功能说明

  • 接口功能:
    asdFftIstftMakePlan:初始化该句柄对应的istft配置。
    asdFftExecIstft:执行逆短时傅里叶变换。

  • 计算公式:
    istft函数用于进行逆短时傅里叶变换,它的目标是将stft得到的频域数据转换回时域信号,是stft的逆运算。短时距傅里叶变换是可逆的,也就是说原本的信号可以借由反短时距傅里叶变换将短时距傅里叶变换后的信号还原。其中最广为接受的反短时距傅里叶变换方法是重叠-相加之卷积法。

    其中,傅里叶变换(Fourier transform)是一种线性积分变换,用于信号在时域和频域之间的变换,在物理学和工程学中有许多应用。对应给定长度为N的信号,DFT表达式如下:

    将系数矩阵(NN)和时域信号(N1)看作两个Tensor,在NPU上直接使用矩阵乘,可完成DFT。但时间复杂度太高,因此需要快速傅里叶变换。其基本原理是利用三角函数在复数域的旋转对称性,将序列拆分成子序列,通过蝶形运算以降低计算的复杂度:

    而重叠-相加之卷积法( Overlap-add method ) 是一种区块卷积 ( block convolution, sectioned convolution ),可以有效的计算一个很长的信号 x[n]和一个FIR滤波器h[n]的离散卷积。其中h[m]在 [1, M]之外为零。

函数原型

AspbStatus asdFftIstftMakePlan( asdFftHandle handle, const aclTensor * input, const int64_t nFft, const int64_t hopLengthOpt, const int64_t winLengthOpt, const bool center, const bool normalized, const bool onesidedOpt, const int64_t lengthOpt, const bool returnComplex)
AspbStatus asdFftExecIstft( asdFftHandle handle, const aclTensor * input, const aclTensor * windowOpt, const aclTensor * output)

asdFftIstftMakePlan

  • 参数说明:

    参数名输入/输出描述
    handle(asdFftHandle)输入算子的句柄,需要手动申请创建asdFftHandle对象。
    input(aclTensor *)输入
    • 对应公式中的'x'。
    • 数据格式支持ND,格式预期与stft输出相同。
    • 数据类型仅支持COMPLEX64。
    • shape为(B, N, T)
      • 'B'是批处理维度。
      • N是频率样本的数量,当onesidedOpt为true时, 为 (nFft // 2) + 1,当onesidedOpt为false时,为nFft。
      • T是帧的数量,对于中心填充的STFT,取值为“1 + lengthOpt // hopLengthOpt”,其他场景取值为 “1 + (lengthOpt - nFft) // hopLengthOpt”。
    nFft(int64_t)输入傅里叶变换的大小
    hopLengthOpt(int64_t)输入相邻滑动窗口帧之间的距离,0 < hopLengthOpt <= nFft。
    winLengthOpt(int64_t)输入窗口帧长度,winLengthOpt = nFft。
    center(bool)输入表示是否对input的两侧进行了填充,默认等于true,当前版本只支持true。
    normalized(bool)输入表示STFT是否已标准化,默认等于false,当前版本只支持false。
    onesidedOpt(bool)输入表示STFT是否为onesided,默认等于false,当前版本只支持false。
    lengthOpt(int64_t)输入信号将被修剪的量(即原始信号长度),当前版本不支持该参数,默认为0。
    returnComplex(bool)输入输出是否应为复数,默认为True,当前版本只支持True。
  • 返回值

    返回状态码,具体参见SiP返回码。

asdFftExecIstft

  • 参数说明:

    参数名输入/输出描述
    handle(asdFftHandle)输入算子的句柄,需要手动申请创建asdFftHandle对象。
    input(aclTensor *)输入
    • 对应公式中的'x'。
    • 数据格式支持ND,格式预期与stft输出相同。
    • 数据类型仅支持COMPLEX64。
    • shape为(B, N, T)
      • 'B'是批处理维度。
      • N 是频率样本的数量,对于 onesided为true, 输入为 (n_fft // 2) + 1,否则为 n_fft。
      • T是帧的数量,对于中心填充的stft为 1 + length // hop_length,否则为 1 + (length - n_fft) // hop_length。
    windowOpt(aclTensor *)输入
    • 对应公式中的'w'。
    • 数据格式支持ND。
    • 数据类型仅支持FLOAT。
    • shape为[win_length]。
    output(aclTensor *)输出
    • 数据格式支持ND。
    • 数据类型仅支持COMPLEX64。
    • shape为(B, length)。
  • 返回值

    返回状态码,具体参见SiP返回码。

约束说明

  • istft均不支持本地更新,即不允许输入tensor和输出tensor是同一个tensor。

  • 为了使istft能够正确地重构信号,n_fft、hop_length、win_length、window、center和normalized这些参数必须与之前进行stft变换时使用的参数保持一致。

  • 输入的元素不支持inf、-inf和nan,如果输入中包含这些值, 那么结果为未定义。

  • asdFftIstftMakePlan

    • nFft需保证不超过1500且分解质因数后不包含超过199的质因子。
    • 当前功能实现所限,nFft大于等于32768且为2的幂的时候,会修改输入数据,需提前做好备份。
    • hopLengthOpt <= 1500。
    • 输入的元素不支持inf、-inf和nan,如果输入中包含这些值, 那么结果为未定义。
  • asdFftExecIstft windowOpt tensor数值不能有接近零的最小值,否则结果未定义。

调用示例

示例代码如下,该样例旨在提供快速上手、开发和调试算子的最小化实现,其核心目标是使用最精简的代码展示算子的核心功能,而非提供生产级的安全保障。不推荐用户直接将示例代码作为业务代码,若用户将示例代码应用在自身的真实业务场景中且发生了安全问题,则需用户自行承担。

#include <iostream> #include <vector> #include "asdsip.h" #include "acl/acl.h" #include "aclnn/acl_meta.h" using namespace AsdSip; #define CHECK_RET(cond, return_expr) \ do { \ if (!(cond)) { \ return_expr; \ } \ } while (0) #define LOG_PRINT(message, ...) \ do { \ printf(message, ##__VA_ARGS__); \ } while (0) #define ASD_STATUS_CHECK(err) \ do { \ AsdSip::AspbStatus err_ = (err); \ if (err_ != AsdSip::ErrorType::ACL_SUCCESS) { \ std::cout << "Execute failed." << std::endl; \ exit(-1); \ } \ } while (0) int64_t GetShapeSize(const std::vector<int64_t> &shape) { int64_t shapeSize = 1; for (auto i : shape) { shapeSize *= i; } return shapeSize; } int Init(int32_t deviceId, aclrtStream *stream) { // 固定写法,AscendCL初始化 auto ret = aclInit(nullptr); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclInit failed. ERROR: %d\n", ret); return ret); ret = aclrtSetDevice(deviceId); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtSetDevice failed. ERROR: %d\n", ret); return ret); ret = aclrtCreateStream(stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtCreateStream failed. ERROR: %d\n", ret); return ret); return 0; } template <typename T> int CreateAclTensor(const std::vector<T> &hostData, const std::vector<int64_t> &shape, void **deviceAddr, aclDataType dataType, aclTensor **tensor) { auto size = GetShapeSize(shape) * sizeof(T); // 调用aclrtMalloc申请device侧内存 auto ret = aclrtMalloc(deviceAddr, size, ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMalloc failed. ERROR: %d\n", ret); return ret); // 调用aclrtMemcpy将host侧数据复制到device侧内存上 ret = aclrtMemcpy(*deviceAddr, size, hostData.data(), size, ACL_MEMCPY_HOST_TO_DEVICE); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtMemcpy failed. ERROR: %d\n", ret); return ret); // 计算连续tensor的strides std::vector<int64_t> strides(shape.size(), 1); for (int64_t i = shape.size() - 2; i >= 0; i--) { strides[i] = shape[i + 1] * strides[i + 1]; } // 调用aclCreateTensor接口创建aclTensor *tensor = aclCreateTensor(shape.data(), shape.size(), dataType, strides.data(), 0, aclFormat::ACL_FORMAT_ND, shape.data(), shape.size(), *deviceAddr); return 0; } int main() { int32_t deviceId = 0; aclrtStream stream; auto ret = Init(deviceId, &stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("Init acl failed. ERROR: %d\n", ret); return ret); // 创造tensor的Host侧数据 int64_t channel = 10, nFrames = 20, nFft = 16, hopLen = 4, winLen = 16; int64_t outLen = nFft + hopLen * (nFrames - 1) - nFft / 2 - nFft / 2; bool returnComplex = true; bool center = true, normalized = false, onesidedOpt = false; const int64_t tensorInSize = channel * nFrames * nFft; const int64_t tensorWinSize = winLen; const int64_t tensorOutSize = channel * outLen; std::vector<int64_t> selfShape = {channel, nFft, nFrames}; std::vector<int64_t> winShape = {winLen}; std::vector<int64_t> outShape = {channel, outLen}; std::vector<std::complex<float>> inputHostData(tensorInSize, std::complex<float>(0, 0)); for (int i = 0; i < tensorInSize; i++) { inputHostData[i] = std::complex<float>(i * 200.0f / tensorInSize - 100, i * 100.0f / tensorInSize - 50); } std::vector<float> winHostData(tensorWinSize, 0.0f); for (int i = 0; i < tensorWinSize; i++) { winHostData[i] = 1.0f / winLen * i ; } std::vector<std::complex<float>> outHostData(tensorOutSize, std::complex<float>(0, 0)); void *inputDeviceAddr = nullptr; void *winDeviceAddr = nullptr; void *outDeviceAddr = nullptr; aclTensor *input = nullptr; aclTensor *win = nullptr; aclTensor *out = nullptr; ret = CreateAclTensor(inputHostData, selfShape, &inputDeviceAddr, aclDataType::ACL_COMPLEX64, &input); CHECK_RET(ret == ::ACL_SUCCESS, return ret); ret = CreateAclTensor(winHostData, winShape, &winDeviceAddr, aclDataType::ACL_FLOAT, &win); CHECK_RET(ret == ::ACL_SUCCESS, return ret); ret = CreateAclTensor(outHostData, outShape, &outDeviceAddr, aclDataType::ACL_COMPLEX64, &out); CHECK_RET(ret == ::ACL_SUCCESS, return ret); asdFftHandle handle; asdFftCreate(handle); asdFftIstftMakePlan(handle, input, nFft, hopLen, winLen, center, normalized, onesidedOpt, 0, returnComplex); size_t work_size; asdFftGetWorkspaceSize(handle, work_size); void *workspaceAddr = nullptr; if (work_size > 0) { ret = aclrtMalloc(&workspaceAddr, static_cast<int64_t>(work_size), ACL_MEM_MALLOC_HUGE_FIRST); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("allocate workspace failed. ERROR: %d\n", ret); return ret); } asdFftSetWorkspace(handle, (uint8_t *)workspaceAddr); asdFftSetStream(handle, stream); ASD_STATUS_CHECK(asdFftExecIstft(handle, input, win, out)); ret = aclrtSynchronizeStream(stream); CHECK_RET(ret == ::ACL_SUCCESS, LOG_PRINT("aclrtSynchronizeStream failed. ERROR: %d\n", ret); return ret); asdFftDestroy(handle); auto size = GetShapeSize(outShape); std::vector<std::complex<float>> outData(size, 0); ret = aclrtMemcpy(outData.data(), outData.size() * sizeof(outData[0]), outDeviceAddr, size * sizeof(outData[0]), ACL_MEMCPY_DEVICE_TO_HOST); // 打印输出tensor值中前16个 for (int64_t i = 0; i < 16; i++) { std::cout << static_cast<std::complex<float>>(outData[i]) << "\t"; } std::cout << "\nend result" << std::endl; std::cout << "Execute successfully." << std::endl; aclDestroyTensor(input); aclDestroyTensor(win); aclDestroyTensor(out); aclrtFree(inputDeviceAddr); aclrtFree(winDeviceAddr); aclrtFree(outDeviceAddr); if (work_size > 0) { aclrtFree(workspaceAddr); } aclrtDestroyStream(stream); aclrtResetDevice(deviceId); aclFinalize(); return 0; }

【免费下载链接】sip本项目是CANN提供的一款高效、可靠的高性能信号处理算子加速库,基于华为Ascend AI处理器,专门为信号处理领域而设计。项目地址: https://gitcode.com/cann/sip

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

http://www.jsqmd.com/news/783889/

相关文章:

  • 99.手把手教你落地YOLOv5车辆检测,含COCO格式适配+全流程代码实操
  • QUASAR:LLM驱动的量子编程新范式
  • 复盘红日Vulnstack1:除了MSF和CS,我们还能用哪些“冷门”工具链完成内网横向?
  • 2026年做实验动物服务的正规公司选择参考 - 品牌排行榜
  • CANN/shmem 贡献指南
  • 2026年电地暖优质厂家推荐指南 河北暖吉星电器有限公司优选 电地暖/石墨烯电地暖/石墨烯地暖 - 奔跑123
  • 无锡蔷薇动能科技:新吴吊车租赁公司有哪些 - LYL仔仔
  • 基于BERTopic的AI顶会研讨会主题建模:揭示可信AI等交叉研究脉络
  • Hoomanity:基于ACP协议将AI编程助手无缝集成到Slack/Telegram
  • 基于OpenClaw框架的智能求职助手:自动化信息采集与AI匹配实战
  • 暖心相伴,深圳亲子家庭开放日企业文体活动优选方案解析 - 深度智识库
  • 2026年淘淘收解读京东e卡回收必备技能 - 淘淘收小程序
  • 移动端深度学习模型压缩实战:基于PocketFlow的剪枝、量化与部署指南
  • 终极指南:如何使用RePKG轻松提取Wallpaper Engine资源文件
  • 开源课程体系:模块化学习路径与项目驱动实践指南
  • AUTOSAR COM信号收发避坑指南:从ISO 11898-1标准到PDU Router配置的实战解析
  • 安徽2026年热门的庭院假山服务商推荐:合肥飞宇石业有限公司 - 安互工业信息
  • 自己在家怎么做电商?2026居家三模式对比测评与一人工具链教程 - PC修复电脑医生
  • CANN/asc-devkit平台信息添加API
  • 2026优质风口风阀厂家推荐及行业应用解析 - 品牌排行榜
  • 【2026OD新机考】【回溯】20260429-获取大写字母瓷砖拼出独特图案数量【Py/Java/C++/C/JS/Go六种语言OD真题】【欧弟算法】全网注释最详细分类最全的华子OD真题题解
  • 别再只盯着分辨率了!用AWG和WFD实测ADC/DAC的INL、DNL和ENOB(附避坑指南)
  • 自动拉板压滤机哪家好?污水处理厂家联系方式 - 品牌2025
  • 100.详解YOLOv8 NMS机制+模型改进,附COCO128完整训练代码与详细注释
  • Go语言构建全能开发者工具集:设计哲学与实战应用
  • 室内膨胀型钢结构防火涂料主流合规厂家实力排行 - 奔跑123
  • 基于Cloudflare边缘计算部署AI智能体:OpenClaw容器化实践指南
  • 2026年广东二手PCB设备买卖与产能优化方案指南 - 年度推荐企业名录
  • 2026年连锁餐饮门店资产管理,多场景软件系统精选推荐 - 品牌2026
  • CANN/asc-devkit:AllocMutexID互斥锁分配接口