
YOLO11 改进、魔改|低分辨率自注意力机制LRSA ,提取全局上下文建模与局部细节,提升小目标、密集小目标的检测能力
本文提出低分辨率自注意力机制(LRSA)来解决计算机视觉任务中全局建模与计算效率的矛盾。LRSA通过将自注意力计算限制在固定低分辨率空间(如16×16),显著降低计算复杂度,同时配合高分辨率局部卷积保留细节信息。在目标检测中,LRSA能高效捕捉物体间全局关系并提升定位精度;在语义分割中,可增强上下文理解且保持边缘准确性。研究还展示了将LRSA集成到YOLOv11模型中的具体实现方法,包括核心代码结构、模块导入和配置文件修改等步骤,为平衡视觉任务精度与效率提供了有效解决方案。
