YOLOv5改进 | 2023注意力篇 | EMAttention注意力机制(附多个可添加位置)

一、本文介绍

本文给大家带来的改进机制是EMAttention注意力机制,它的核心思想是,重塑部分通道到批次维度,并将通道维度分组为多个子特征,以保留每个通道的信息并减少计算开销。EMA模块通过编码全局信息来重新校准每个并行分支中的通道权重,并通过跨维度交互来捕获像素级别的关系。本文首先给大家提供效果图(由基础版本未作任何修改和修改了本文的改进机制的效果对比图),然后介绍其主要的原理,最后手把手教大家如何添加该注意力机制

推荐指数:⭐⭐⭐⭐⭐

涨点效果:⭐⭐⭐⭐⭐

专栏目录:

猜你喜欢

转载自blog.csdn.net/java1314777/article/details/135443454