轻量级的 Mixed Local Channel Attention (MLCA)-加强通道信息和空间信息提取能力

MLCA

本文章介绍了一种轻量级的 Mixed Local Channel Attention (MLCA) 模块,该模块同时考虑通道信息和空间信息,并结合局部信息和全局信息以提高网络的表达效果。基于该模块,我们提出了 MobileNet-Attention-YOLO(MAY) 算法,用于比较各种注意力模块的性能。在 Pascal VOC 和 SMID 数据集上,MLCA 相对于其他注意力技术更好地平衡了模型表示效果、性能和复杂度。与 PASCAL VOC 数据集上的 Squeeze-and-Excitation(SE) 注意力机制和 SIMD 数据集上的 Coordinate Attention(CA) 方法相比,mAP 分别提高了 1.0% 和 1.5%。

在这里插入图片描述
在这里插入图片描述

GitHub

链接

相关专栏

YOLOv5涨点改进:轻量级的 Mixed Local Channel Attention (MLCA),加强通道信息和空间信息提取能力
YOLOv8轻量化模型:模型轻量化创新 | MobileNetV3结合轻

视频教程:

b站链接

猜你喜欢

转载自blog.csdn.net/qq_41823532/article/details/135466636