YOLO11涨点优化:注意力魔改 | 结合Bi-Former的动态路由注意力,实现计算资源的按需分配,CVPR2023 SOTA
一、开篇:目标检测的“计算浪费”困局
目标检测领域的竞争,从来不缺“更快”和“更准”的比拼。但你可能没有意识到一个问题——当前大多数注意力机制,其实在做大量无效计算。
传统多头自注意力(Multi-Head Self-Attention, MHSA)的复杂度是O((HW)2)O((HW)^2)O((HW)
目标检测领域的竞争,从来不缺“更快”和“更准”的比拼。但你可能没有意识到一个问题——当前大多数注意力机制,其实在做大量无效计算。
传统多头自注意力(Multi-Head Self-Attention, MHSA)的复杂度是O((HW)2)O((HW)^2)O((HW)