当前位置: 首页 > news >正文

面向图像分类的自监督/对比学习辅助的知识蒸馏-类别对比蒸馏(Category Contrastive Distillation, CCD) - 详解

面向图像分类的自监督/对比学习辅助的知识蒸馏-类别对比蒸馏(Category Contrastive Distillation, CCD) - 详解

1 源码实现

import torch
import torch.nn as nn
import torch.nn.functional as F
from torch.cuda.amp import autocast

class CategoryContrastiveDistillation(nn.Module):
"""
简化的类别对比蒸馏(CCD)损失模块。
参考自:Chen et al., Category contrastive distillation with self-supervised classification[citation:1]
和 StAlK 中利用均值教师进行特征对齐的思想[citation:6]。
"""
def __init__(self, num_classes, feat_dim, temperature=0.1, momentum=0.999):
super().__init__()
self.num_classes = num_classes
self.temperature = temperature
self.momentum = momentum

# 注册缓冲区,用于存储教师和学生的类别原型(记忆库)
self.register_buffer("teacher_prototype", torch.zeros(num_classes, feat_dim))
self.register_buffer("student_prototype", torch.zeros(num_classes, feat_dim))

# 初始化原型为随机值(实践中可用第一批数据初始化)
nn.init.normal_(self.teacher_prototype, mean=0, std=0.01)
nn.init.normal_(self.student_prototype, mean=0, std=0.01)

@torch.no_grad()
def _update_prototype(self, features, labels, prototype_bank):
"""动量更新类别记忆库"""
for idx in range(self.num_classes):
mask = (labels == idx)
if mask.any():
# 计算当前批次中该类所有样本特征的均值
class_feat_mean = features[mask].mean(dim=0)
# 动量更新:新原型 = momentum * 旧原型 + (1 - momentum) * 当前均值
prototype_bank[idx] = self.momentum * prototype_bank[idx] + (1 - self.momentum) * class_feat_mean
# 可选:对原型进行L2归一化,方便计算余弦相似度
prototype_bank[idx] = F.normalize(prototype_bank[idx].unsqueeze(0), dim=1).squeeze(0)

def forward(self, student_feat, teacher_feat, labels):
"""
计算类别对比蒸馏损失。
Args:
student_feat: 学生模型特征,形状 [batch_size, feat_dim]
teacher_feat: 教师模型特征,形状 [batch_size, feat_dim]
labels: 样本真实标签,形状 [batch_size]
Returns:
ccd_loss: 类别对比蒸馏损失
"""
batch_size = student_feat.shape[0]

# 1. 动量更新教师和学生的类别原型记忆库
self._update_prototype(teacher_feat.detach(), labels, self.teacher_prototype)
self._update_prototype(student_feat.detach(), labels, self.student_prototype)

# 2. 计算学生特征与所有教师原型的相似度(作为“软目标”)
# 相似度矩阵: [batch_size, num_classes]
# 这里使用点积相似度,假设特征和原型都已L2归一化
sim_student_to_teacher_proto = torch.mm(F.normalize(student_feat, dim=1),
F.normalize(self.teacher_prototype, dim=1).t())

# 3. 计算教师特征与所有教师原型的相似度(作为“软标签”)
sim_teacher_to_own_proto = torch.mm(F.normalize(teacher_feat.detach(), dim=1),
F.normalize(self.teacher_prototype, dim=1).t())

# 4. 应用温度缩放,将相似度转换为概率分布
student_dist = F.log_softmax(sim_student_to_teacher_proto / self.temperature, dim=1)
teacher_dist = F.softmax(sim_teacher_to_own_proto / self.temperature, dim=1)

# 5. 计算KL散度损失,让学生特征与原型的相似度分布接近教师特征与原型的分布
ccd_loss = F.kl_div(student_dist, teacher_dist, reduction='batchmean') * (self.temperature ** 2)

# 6. (可选) 引入一个辅助的“学生原型-教师原型”对齐损失
# 直接最小化学生原型和教师原型之间的距离,进一步稳定训练
proto_alignment_loss = F.mse_loss(self.student_prototype, self.teacher_prototype.detach())

# 总CCD损失是两项的加权和
total_ccd_loss = ccd_loss + 0.5 * proto_alignment_loss

return total_ccd_loss

# ============ 如何在主训练循环中使用 ============
# 假设已有:student_model, teacher_model, optimizer, dataloader
# num_classes = 100, feature_dim = 256
# ccd_criterion = CategoryContrastiveDistillation(num_classes=100, feat_dim=256, temperature=0.1)

# for images, labels in dataloader:
# images, labels = images.cuda(), labels.cuda()
#
# # 1. 前向传播,获取特征和logits
# # 假设模型返回一个元组 (logits, feature)
# student_logits, student_feat = student_model(images)
# with torch.no_grad(): # 教师模型不计算梯度
# # 教师模型通常使用学生模型的EMA参数[citation:6]
# teacher_logits, teacher_feat = teacher_model(images)
#
# # 2. 计算各项损失
# # a. 标准交叉熵损失
# ce_loss = F.cross_entropy(student_logits, labels)
#
# # b. 传统知识蒸馏损失 (软化标签)
# temp = 4.0
# kd_loss = F.kl_div(F.log_softmax(student_logits / temp, dim=1),
# F.softmax(teacher_logits / temp, dim=1),
# reduction='batchmean') * (temp * temp)
#
# # c. 类别对比蒸馏损失
# ccd_loss = ccd_criterion(student_feat, teacher_feat, labels)
#
# # 3. 组合总损失 (权重需要调参)
# lambda_kd = 0.5
# lambda_ccd = 1.0
# total_loss = ce_loss + lambda_kd * kd_loss + lambda_ccd * ccd_loss
#
# # 4. 反向传播与优化
# optimizer.zero_grad()
# total_loss.backward()
# optimizer.step()
#
# # 5. (关键) 更新教师模型为学生的EMA
# # tau为EMA动量,例如0.999
# tau = 0.999
# for param_s, param_t in zip(student_model.parameters(), teacher_model.parameters()):
# param_t.data = tau * param_t.data + (1 - tau) * param_s.data

2 流程图与解析

流程关键点解读

  1. 双分支输入:同一张图像经过不同的数据增强(如强增强和弱增强),分别输入学生和教师模型。

  2. 教师模型更新:教师模型的参数通常采用学生模型参数的指数移动平均(EMA)获得,这是一个稳定知识源的关键技巧-6。

  3. 记忆库:教师和学生模型分别维护一个动态的类别记忆库,用于存储和更新每个类别的特征原型(通常使用当前批次的特征滑动平均更新)-1。

  4. 损失函数:总损失是多项损失的加权和,核心包括:

    • 传统知识蒸馏损失(L_kd):让学生模型的 softened logits 去匹配教师模型的。

    • 自监督对比损失(L_ssl):例如,让学生模型对同一图像不同增强视图的特征表示尽可能接近(正样本),而与其他图像的特征表示远离(负样本)。

    • 类别对比蒸馏损失(L_ccd):这是核心创新点。它计算学生特征与其所有教师类别原型的相似度分布,并与one-hot标签或教师预测分布进行对比损失计算,从而让学生特征向正确的教师类别原型靠近,并远离其他类别原型

http://www.jsqmd.com/news/266657/

相关文章:

  • 喜马拉雅音频资源本地化终极指南:打造永不丢失的私人听书馆
  • WorkshopDL终极指南:3分钟学会免费下载Steam创意工坊模组
  • 如何快速掌握国家自然科学基金LaTeX模板:面向科研新手的完整指南
  • 跨平台部署TTS有多简单?Supertonic镜像一键启动教程
  • 如何将闲置电视盒子改造为专业Linux服务器:Armbian系统完整指南
  • 2026年靠谱商品房装修公司排行榜,新测评精选欧式风格商品房装修推荐品牌 - 工业品牌热点
  • AI工程学习路径:纸质与数字资源的最优配置方案
  • Qwen3-4B-Instruct-2507隐私保护实施方案
  • Lucy-Edit-Dev:文本指令轻松实现视频精准编辑
  • USB通信中HID请求处理流程系统学习
  • UI-TARS终极使用指南:零基础实现桌面自动化革命
  • Midscene.js自动化测试实战:5大核心技术原理深度解析
  • Qwen3-4B-Instruct-2507性能基准:吞吐量与延迟测试
  • N_m3u8DL-RE完全指南:从零开始掌握流媒体下载
  • Qwen2.5-0.5B公共安全:应急问答系统
  • 2026年EPS泡沫优质厂家推荐,看哪家产品性价比高? - 工业品牌热点
  • 终极图像差异检测工具odiff:快速发现像素级视觉差异
  • 3倍效率提升:智能投资平台如何重构量化研究流程
  • HY-MT1.5-1.8B模型微调:领域自适应训练全流程
  • 2026年专业的安全气囊精密钢管厂家联系方式 - 品牌宣传支持者
  • Qwen2.5-7B-Instruct技术揭秘:为什么编程能力提升显著?
  • Revit模型转换终极指南:5分钟掌握OBJ与GLTF双格式导出
  • 语义补全系统开发:BERT模型实战
  • BetterJoy完整指南:在PC上完美使用任天堂Switch控制器的终极方案
  • 技术管理的两难:编码能力在流失,管人能力未增长
  • 三步搞定抖音合集批量下载:高效保存所有视频内容的终极方案
  • 杰理之在windows7电脑上播放歌曲过程中会异常掉设备【篇】
  • Mac鼠标功能增强终极指南:彻底释放第三方设备隐藏潜力
  • Llama3-8B智能家居控制:语音指令解析实战教程
  • 高效多模态AI落地手机端|AutoGLM-Phone-9B模型架构与部署详解