当前位置: 首页 > news >正文

【调制识别】国防科大最新研究:雷达 + 通信双场景验证!CSSL-AMC 让调制分类更抗噪【附python代码】

文章来源 微信公众号 EW Frontier

基于对比学习的自动调制分类方法

一、摘要

在军事与民用领域(如频谱监测、特定辐射源识别、认知无线电),采用有监督深度神经网络(DNN)实现自动调制分类(AMC)的端到端方案已受到广泛关注。然而,该方法存在泛化误差、虚假相关性等问题。为捕捉并提取更抽象、更有用的特征以提升下游任务性能,“对比学习” 这一极具潜力的表征学习方法已在计算机视觉和自然语言处理领域取得显著成效,其核心是通过最大化 latent 空间中同一数据样本不同视图间的相似度来学习有效特征。

本文提出一种基于对比学习的目标函数,旨在提升模型在低信噪比(SNR)数据集上的迁移性能。与以往用于噪声信号分类的去噪类方法相比,该方法摒弃了成对输入的约束,允许模型利用同一类别内噪声信号与干净信号的任意组合。此外,引入噪声水平估计模块,增强了模型在不确定噪声环境下的鲁棒性。在合成雷达信号数据集和公开通信信号数据集上的仿真结果表明,所提方法泛化误差极小,且在不同噪声类型的信号数据上均展现出优异性能。

二、引言

自动调制分类(AMC)是指对接收信号的调制模式进行识别,它是频谱管理、认知电子战及各类军民应用中的关键技术。例如,在大规模无线通信的信号侦察与检测、低截获概率(LPI)雷达的脉内分析中,AMC 可用于判断敌方电子发射机的工作参数,为后续作战方案制定提供支持。但实际应用中,AMC 面临诸多挑战:一方面,传统的最大似然准则和基于特征的方法计算复杂度高,且有时难以得到最优解;另一方面,当数据量不足、信号受强噪声或干扰严重污染时,AMC 的实现难度会大幅增加。

近年来,有监督深度神经网络(DNN)被视为高效解决 AMC 问题的潜在方案。这种端到端范式能直接以原始数据为输入,自动学习不同任务所需的内部表征,相比传统技术,无需人工设计特征即可学习高维数据中的复杂映射关系。例如,Ramjee 等人通过融合 DenseNet 与 LSTM 架构,提出优化版 CLDNN 模型,在包含 10 种调制类型的数据集上,当信噪比大于 2dB 时分类准确率可达 90% 左右;文献 [15] 设计的 MCNet 模型,采用非对称卷积核、残差连接和多尺度特征图,在 RadioML 2018.01A 数据集(含 24 种调制类型)上,20dB 信噪比下分类准确率达 93.59%;Dong 等人提出的半监督学习框架 SSRCNN,通过交叉熵损失、KL 散度损失和中心损失构成的多组件损失函数,结合有标签与无标签数据训练,在 RadioML 2016.04C 数据集上实现约 94% 的稳定平均准确率,对噪声污染的抗干扰能力更强。

然而,现有分类器普遍缺乏分布外泛化能力,当训练数据与测试数据因随机噪声等外部因素产生分布偏移时,模型性能会显著下降。目前,AMC 领域针对这一问题的研究成果较少。作者此前提出的去噪分类网络(DNCNet)虽能提升高信噪比数据集训练模型在噪声污染数据上的分类准确率,但依赖成对的干净与噪声数据,而获取干净训练样本往往难度大、耗时长。

目前,业界普遍认为,通过无标签数据预训练、再针对有监督下游任务微调的范式,能为模型提供更优的初始参数,找到泛化性能更好的最优解。预训练阶段的 pretext 任务可在无需标注的情况下学习有效表征,主要包括三类:一是重构类任务(如 MAE、GPT、BERT),通过移除部分输入数据并训练模型预测缺失部分实现;二是对比类任务(如 MoCo、BYOL、SimCLR),通过最大化 latent 空间中同一数据不同视图的相似度学习特征;三是生成类任务(如 GAN、BiGAN、BigGAN),通过生成器与判别器的对抗损失建模数据概率分布,挖掘语义信息。

本文聚焦自动调制分类问题,旨在提升深度模型在面对不同噪声类型、不同噪声强度信号时的鲁棒性,主要贡献如下:

1

借鉴 SimCLR 和 MoCo 中不同视图表征间的可学习非线性变换与动量更新机制,设计适用于噪声环境下 AMC 任务的对比学习深度模型。该模型从同一类别、不同采样时间的噪声与干净信号中随机选取数据,无需依赖成对的噪声 - 干净训练数据(避免了通过向干净信号添加随机噪声生成噪声数据的局限),既符合实际接收场景需求,又能适配多种噪声类型。

2

提出噪声水平表征模块,将其与干净、噪声信号拼接后输入对比学习框架中的编码器。该模块可从输入数据中提取区分性特征,作为噪声水平的指示信号,从而增强模型处理不同信噪比信号数据的鲁棒性,避免传统 DNN 分类器在信噪比下降时准确率大幅滑坡的问题,使模型收敛到更稳定的最优解。

3

在公开通信信号数据集和合成雷达信号数据集上,对所提方法与现有先进方法进行全面性能对比。除常用的加性高斯白噪声外,还验证了方法在有色高斯噪声和脉冲噪声信号上的有效性。

三、网络模型介绍

本文提出的对比自监督学习自动调制分类架构(CSSL-AMC)遵循 “无监督预训练 - 有监督微调” 范式,核心是通过对比学习比较输入的多视图,判断输入对是否属于同一类别(正样本对)或不同类别(负样本对),并通过相似度函数拉近正样本对、推远负样本对。模型将干净与噪声信号视为输入的多视图,分为两阶段学习:

1

预训练阶段(Pretext 任务):通过对比损失提取无标签信号的通用特征。将同一类别的噪声信号与干净信号输入噪声水平估计器(将噪声样本视为干净样本的增强视图),将输出的噪声强度指示信号与原始信号拼接后输入编码器,通过反向传播最小化对比损失(衡量 latent 空间中同类干净与噪声信号的相似度)。

2

微调阶段(下游任务):将预训练得到的表征迁移到下游分类任务,利用有标签数据更新网络参数。与随机初始化训练相比,该有监督微调策略分类准确率更高,且在低信噪比噪声数据上泛化性能更优。

(一)非成对输入设计

实际场景中(如雷达信号截获),受传输路径损耗、人为干扰等因素影响,接收机获取的信号信噪比各异,同一采样周期内无法同时获得高、低信噪比的成对信号数据。因此,非成对输入更贴合实际应用需求。

该设计基于调制信号的确定分布与噪声的随机分布差异:在同一环境下选取的非成对输入数据遵循相同概率分布,代表不同时间点的信号实例。具体而言,从同一类别的噪声样本()和干净样本()中随机选取数据构成非成对输入(如图 6 所示)。对比成对输入(同一时间点的干净信号与噪声信号),非成对输入中噪声信号与干净信号来自不同时间点。由于每个信号样本维度为2×N(为信号序列长度),需先对干净、噪声信号数据集随机打乱,再随机选取数据构建尺寸为 “批大小 ×2×N” 的非成对输入。

从特征学习效果看,成对输入中,编码器和分别处理和,相似度函数仅从单个样本中提取干净信号分布与随机噪声相关特征;而非成对输入通过同一类别中和\tilde{x}_j(i≠j)训练编码器,使其在单次迭代中处理更多类内样本与噪声,对类内分布的理解更深入。

(二)噪声水平表征模块

当信号数据信噪比与训练数据差异较大时,DNN 性能下降的原因包括噪声污染和模型对未知数据集的鲁棒性 / 泛化能力不足。为避免为不同噪声水平数据单独设计模型,本文采用全卷积网络(FCN)作为噪声水平指示模块。

FCN 包含 3 个无池化操作的卷积层,输出通道数分别为 32、32、2,步长设为 3 并采用零填充,确保输入与输出数据维度一致。将 FCN 输出与信号数据在通道维度拼接后输入后续 DNN(如图 7(b)所示),FCN 输出的特征向量可表征噪声强度,为处理不同信噪比数据提供辅助信息。

相比文献 [46] 中基于噪声标准差构建的噪声水平图(如图 7(a)所示),该 FCN 模块可处理信噪比未知的信号数据;同时,避免了噪声水平图作为正则项引入时增加模型训练难度的问题。当输入同一类别、不同噪声强度(如 30dB 与 5dB 信噪比)的非成对信号数据时,分类器需将其归为同一类别,此时 FCN 可捕捉信号本身之外的区分性特征,增强模型处理未见过信噪比信号数据的鲁棒性。

(三)对比学习框架组件

借鉴 MoCo、BYOL、SimCLR 等对比学习算法(通过区分图像增强视图的正负样本对学习表征),该框架通过增强 latent 空间中同类干净与噪声样本的对齐性,学习信号数据的通用表征,提取不同但相似域中的不变表征,主要包含三大组件:

1

编码器:编码器和分别从拼接噪声水平表征的干净、噪声信号序列中提取特征向量,即和。基于 ResNet 架构修改适配 I/Q 信号数据:采用 1D 卷积和池化操作替代原始 2D 操作;输入数据尺寸为4×N(信号数据2×N + 噪声水平表征2×N),因此第一层卷积输入通道设为 4;移除标准 ResNet 中最后全连接层前的平均池化层,最终输出 128 维特征向量。

2

投影器:投影器将编码器输出的特征表征非线性映射到相似度计算空间。采用含 1 个隐藏层的 MLP(隐藏层单元数 64),输出。文献 [28] 验证,非线性投影器优于线性投影器,且在投影器输出上计算对比损失更有利于下游任务;同时,借鉴 BYOL 的非对称架构,仅在编码器后设置单个投影器(而非为两个编码器分别设置投影器),避免动量更新过程中表征一致性下降导致的模型崩溃,增强编码器的特征提取能力。

3

分类器:下游任务分类器采用含 1 个隐藏层的 MLP,输出通道数与数据集中调制类型数量一致。

(四)训练策略

1

负样本选择:对比学习通过拉近同一数据不同视图的表征(正样本对)、推远不同数据视图的表征(负样本对)构建数据与 latent 嵌入的分布。为避免随机分布数据作为负样本引入无关信息(导致对比损失贡献小、模型收敛慢),选择不同类别的真实信号数据作为负样本,训练编码器区分原始样本的有效增强视图(正样本)与其他类别样本(负样本)。

2

动量更新与对比损失:参考 MoCo 的动量对比学习机制更新编码器与投影器参数。对比损失计算公式为:

其中,为原始样本,为正样本,为负样本,为温度系数,为余弦相似度函数()。反向传播时,停止编码器的梯度更新,其参数通过动量更新:(为控制编码器更新速率的动量系数,确保 latent 空间一致性)。

1

预训练与微调范式:预训练阶段通过自监督学习充分理解干净与噪声数据特征后,微调阶段将语义知识非线性映射到类别信息。下游任务采用通过损失函数梯度反向传播更新的编码器(图 5 中橙色模块),而非动量滑动平均更新的编码器。该策略相比随机初始化训练,能使模型收敛到更稳定的最优解,泛化性能更优。

四、结论

针对深度神经网络在自动调制分类(AMC)中因噪声污染导致的分布外样本过拟合问题,本文提出一种基于 DNN 的信号侦察与检测方法(CSSL-AMC)。该方法通过在嵌入空间中拉近同类信号(干净与噪声样本)的表征、推远不同类信号的表征,学习干净与噪声样本间的特征关联,摒弃了以往去噪类方法对成对干净 - 噪声输入数据的依赖。

为提升模型在宽信噪比范围信号数据上的泛化能力,在特征表征过程中设计了噪声水平估计器。通过与现有去噪类方法、对比学习方法的对比实验验证:所提方法在不确定信噪比环境和不同噪声类型下均具有良好鲁棒性,能显著提升 DNN 分类器在低信噪比信号数据上的迁移性能。

http://www.jsqmd.com/news/453793/

相关文章:

  • 深空探测数据接口篇(四):LVDS接口
  • VSCODE菜单修改字体大小
  • 基于Java的校园音乐交流分享系统的设计与实现
  • AI“世界模型”火爆背后:是通往通用智能的钥匙,还是新的潘多拉魔盒?
  • ClaudeCode×Elasticsearch:服务日志查询的 AI 化落地实践
  • 半导体基本知识
  • 【少儿编程】C++初级内容汇总
  • SX1308升压电路测试正常
  • KeyShot 2025 工业设计渲染新标杆 最新版本下载安装
  • 别再瞎找了!降AI率平台 千笔·专业降AIGC智能体 VS Checkjie,MBA专属更高效!
  • 芸众商城开发商家让利独立插件
  • python flask水果购物商城vue
  • 下载vscode调试环境并试着运行github上的项目
  • 收藏 |小白程序员必看:传统编程、Workflow与Agent的区别,轻松入门大模型
  • python flask体育用品球鞋商店购物商城系统vue
  • 宠物医院管理系统|基于springboot + vue宠物医院管理系统(源码+数据库+文档)四、其他项目参考五、代码参考
  • 【收藏】金三银四不等人!2026 春招上岸指南:大模型才是普通人的破局密钥
  • 后续漏洞利用的关键前提☞WAF指纹识别
  • 课程2,如何使用EtherCAT抓包仪进行DC抖动分析
  • SpringCloud微服务架构通俗解析
  • 八、centos修改静态网络的方法
  • 开源吐槽大会:开发者集体破防现场
  • day107(3.8)——leetcode面试经典150
  • 计算机网络基础知识详解:MAC地址、IP地址、交换机、路由器、DNS与CDN
  • 《onlyoffice的安装和使用》
  • BOT 上线开启生态新篇:跨链桥、DEX 同步就位,BOT Chain 驶入价值捕获快车道
  • FireRed-OCR 开源:2B 小模型如何“逆袭” 300B 巨头?
  • 大模型小白指南2 -- 小龙虾(openclaw)的本地部署(不花钱!)
  • 接口结构天天变?Spring Boot 动态接收请求体的终极解决方案来了!
  • 飞书OpenClaw插件太香了!自动写文+整理表格+按评论修改保姆级教程