论文介绍
注意力机制是计算机视觉领域应用最广泛的组件之一,能帮助神经网络强化关键特征并抑制无关信息。然而,绝大多数通道注意力机制仅包含通道特征信息而忽略空间特征信息,导致模型表征效果或目标检测性能不佳,且现有空间注意力模块往往结构复杂、计算成本高昂。为权衡性能与复杂度,本文提出一种轻量级混合局部通道注意力(MLCA)模块以提升目标检测网络性能,该模块能同时融合通道信息与空间信息、局部信息与全局信息,从而增强网络表达能力。基于此,提出用于对比各类注意力模块性能的MobileNet-Attention-YOLO(MAY)算法。在Pascal VOC和SMID数据集上,MLCA相比其他注意力技术在模型表征效能、性能与复杂度间取得了更优的平衡。相较于PASCAL VOC数据集上的Squeeze-and-Excitation(SE)注意力机制和SIMD数据集上的Coordinate Attention(CA)方法,平均精度(mAP)分别提升了1.0%和1.5%。
文章地址:地址
改进步骤
步骤1
在ultralytics\nn\extra_modules\block