注意力机制模块:全局注意力机制 GAM 详解:跨维度特征交互,超越传统 CBAM 的2026落地新宠
引言:注意力机制的“维度困境”
在深度学习领域,注意力机制(Attention Mechanism)已经成为提升模型性能的核心武器。从SENet首次将通道注意力引入CNN,到CBAM(Convolutional Block Attention Mechanism)同时使用通道和空间注意力,再到Transformer中的自注意力机制,注意力机制的发展脉络清晰地指向一个方向——让模型学会“看什么”和“看哪里”。
然而,传统注意力机制存在一个被长期忽视的根本性缺陷:维度分离导致的信息损失。根据GAM论文《Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactions》的研究,CBAM虽然依次进行通道和空间注意力操作,但忽略了通道与空间之间的相互作用,造成了跨维度信息的丢失。SE虽然轻量,但只关注通道维度,完全放弃了空间信息的建模。
这种“维度分离”带来了什么后果?想象一下,通道注意力告诉你“这张图里有猫的特征”,空间注意力告诉你“猫在图的左上角”,但这两个信息在传递过程中是割裂的。通道注意力在降维压缩时已经丢失了精确的空间位置对应关系,等到空间注意力介入时,它面对的已经是“残缺”的信息了。
2021年,一篇题为《Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactions》的论文提出了全局注意
