YOLO11涨点优化:边界框回归 | 融合KLD (Kullback-Leibler Divergence) 损失,将边界框建模为高斯分布,有效对抗模糊边界
写在前面:提升目标检测模型精度,除了暴力增加模型参数,边界框回归损失函数的改进是性价比最高、改动最小的捷径。本文将深入剖析一种前沿的回归损失——KLD损失,手把手带你将其集成到YOLO11中,实现稳定涨点。
一、问题背景:边界框回归为什么还有优化空间?
1.1 YOLO11性能回顾:已经很强,但依然有“隐性天花板”
截至2026年,YOLO11已经在业界确立了稳固的地位。根据Ultralytics官方文档,YOLO11于2024年9月27日在YOLO Vision 2024大会上发布,由Glenn Jocher和Jing Qiu共同作者,凭借C3K2模块、SPPF快速空间金字塔池化和C2PSA空间注意力机制,在保持极低参数量的前提下实现了显著的精度提升。2026年3月12日,MLCommons在MLPerf Inference v6.0基准测试中正式将YOLO11纳入Edge Suite,替代服役多年的RetinaNet,成为边缘端目标检测的工业基准。YOLO11l变体在COCO上达到53.4% mAP,以仅25.3M参数超越了YOLOv8l的52.9%。
然而,任何检测模型都存在一个共同瓶颈——边界框回归(Bounding Box Regression, BBR)的损失函数设计。这也是目标检测领域最活跃的研究方向之一。
