当前位置: 首页 > news >正文

对比tensorflow,从0开始学pytorch(五)--CBAM

CBAM = 通道注意力(两种SENet--GAP+GMP的组合)+空间注意力

CBAM是深度学习里程碑式的产物,但代码非常简单,其实就是一个概念:给模型增加可训练可学习的参数矩阵。

有了SENet的经验,CBAM1个小时就搞定了,很丝滑,pytorch还有有一定优势的,代码写熟了以后可以快速复用。先上CBAM原论文图:

上图是总流程图,原文中做了一堆实验,一堆数据,不用管,记住结论就行:先通道注意,后空间注意,效果最好。其实也很好理解。对于隐层,先挑选出哪些隐层最值得关注(通道注意力);然后再对挑出的隐层内容进行重点内容挑选(空间注意力)。

一、通道注意力

从概念上理解后,就是两个注意力机制逐一实现的问题了。首先看通道注意力机制:

是不是特别熟悉?对比一下SENet的图:

SENet的中间展开,就是Fex(., w)展开:

这玩儿意和CBAM的通道注意力中间的那块不能说是一模一样,简直毫无差别…………

二、空间注意力

依然,线上原图:

思路和通道注意力一样,都是Max+Avg,然后通过sigmoid得到一个可以训练的加权的矩阵,然后这个加权的矩阵再和所有隐层做乘法就行。

三、填坑

写代码的时候,发现网上的参考代码居然有问题(不知道是不是我自己写的问题,但有的是明确有问题的),如下:

1. 网上“空间注意力”的代码写错了,导致百度AI给出的代码也是错的,具体如下:

2. 通道注意力机制,没有做尺度变化

这个问题我不确定,反正按照SENet来写,一定要做尺度变化,不然我这会报错。没直接运行网上的代码,感觉有问题。

3. 通道注意力机制默认的7*7卷积核确定比3*3要好么?

此处做了两个修改,一是将7*7的大卷积核改为了3*3,padding不用去算,默认是3,改为same即可。

因为后续技术发展已证明3*3的卷积核是主流,所以这里还是修改一下为好。

四:结果

的确有点用处,大部分都能到99%,之前都是98.8x%上下,有一点点提升。

附上我修改,并且确定可用的CBAM代码,如下:

import torch import torch.nn as nn import torchsummary class ChannelAttention(nn.Module): def __init__(self, input_channels:int, ratio=4): super().__init__() self.gap = nn.AdaptiveAvgPool2d(1) self.gmp = nn.AdaptiveMaxPool2d(1) self.fc1 = nn.Linear(input_channels, input_channels // ratio) self.fc2 = nn.Linear(input_channels // ratio, input_channels) self.relu = nn.ReLU() self.sigmoid = nn.Sigmoid() def forward(self, x): gap_weight = self.gap(x) gap_weight = gap_weight.view(-1, x.shape[1]) gap_weight = self.fc1(gap_weight) gap_weight = self.relu(gap_weight) gap_weight = self.fc2(gap_weight) gmp_weight = self.gmp(x) gmp_weight = gmp_weight.view(-1, x.shape[1]) gmp_weight = self.fc1(gmp_weight) gmp_weight = self.relu(gmp_weight) gmp_weight = self.fc2(gmp_weight) out_put = self.sigmoid(gap_weight + gmp_weight) return out_put class SpatialAttention(nn.Module): def __init__(self): super().__init__() self.conv2d = nn.Conv2d(2,1,3,1,padding="same") self.sigmoid = nn.Sigmoid() def forward(self, x): avg_weight = torch.mean(x, dim=1, keepdim=True) # print(avg_weight.shape) max_weight = torch.max(x, dim=1,keepdim=True)[0] # print(avg_weight.shape) out_put = torch.cat((avg_weight, max_weight), dim=1) # print(out_put.shape) out_put = self.conv2d(out_put) # print(out_put.shape) out_put = self.sigmoid(out_put) return out_put class CBAM(nn.Module): def __init__(self, channels): super().__init__() self.ChannelAttention = ChannelAttention(channels) self.SpatioAttention = SpatialAttention() def forward(self, x): out_put = self.ChannelAttention(x) out_put = out_put.view(out_put.shape[0], out_put.shape[1], 1, 1) out_put = out_put * x out_put = self.SpatioAttention(out_put) * out_put return out_put # device = torch.device('cuda' if torch.cuda.is_available() else 'cpu') # CBAM = CBAM(28).to(device) # torchsummary.summary(CBAM, input_size=(28,28,28))

用起来就很简单了,任何一个隐层后面都可以直接加入:

http://www.jsqmd.com/news/93800/

相关文章:

  • Java 拆分 PDF:使用 Spire.PDF for Java 轻松搞定
  • GitPuk基础到实践,如何详细掌管代码
  • 文科生也能拿40万年薪!普通人转型AI产品经理,这篇万字攻略带你从0到1!
  • 【完整源码+数据集+部署教程】木材裂纹检测系统源码分享[一条龙教学YOLOV8标注好的数据集一键训练_70+全套改进创新点发刊_Web前端展示]
  • GitPuk基础到实践,分支管理全攻略
  • linux2(Bugku杂项入门)
  • doris初学部分总结
  • Claude团队新架构Agent Skills:AI从通才到专家的转变,构建专业Skills引领AI未来!
  • Hadess基础到实践,如何详细管理Npm制品
  • easy_nbt(Bugku杂项入门)
  • How to Quickly Install Multiple Fonts in Linux
  • 高通完成收购Ventana 加速布局RISC-V生态
  • 零基础入门:Flutter + 开源鸿蒙打造可视化儿童编程工具
  • 从零开始构建私有知识库:大模型训练全流程详解(含代码)
  • 基于springboot和vue框架的旅游攻略分享平台_0bv523sv
  • 【time-rs】DifferentVariant 错误类型详解(error/different_variant.rs)
  • 基于springboot和vue框架的流浪宠物领养平台_8pt61t0v
  • 《动手学深度学习》-36.1图像增强
  • 基于springboot和vue框架的选课系统与课程评价整合平台_9dg94p7s
  • 从零训练一个 ChatGPT:用 PyTorch 构建自己的 LLM 模型
  • 多智能体编队与避障:从理论到实践
  • Spring AI 核心架构解析:构建企业级 AI 应用的 Java 新范式
  • 2025年靠谱的隧道风筒布供应商排名:有实力的生产商与技术强 - myqiye
  • 还在为3DMAX轮胎建模发愁?1分钟一个高质轮胎的秘诀在这里!
  • 第52集科立分板机:科立分板机有哪些型号
  • 2025年五大靠谱印刷橡皮布供应商推荐,济南国创橡皮布反馈怎 - 工业推荐榜
  • 4MB 轻量化神器!PaintTool SAI Ver2024 二次元插画必备下载安装教程
  • 基于STM32的温度PID控制系统实现
  • 2025年实验室排风装置生产厂家权威推荐榜单:实验室取材台‌/通风柜通风系统‌/走入式通风柜源头厂家精选 - 品牌推荐官
  • starrocks fe一直起不来因为catalog