YOLOv8/YOLOv7/YOLOv5/YOLOv4/Faster-rcnn系列算法改进【NO.67】添加注意力机制MHSA

 前言
作为当前先进的深度学习目标检测算法YOLOv8,已经集合了大量的trick,但是还是有提高和改进的空间,针对具体应用场景下的检测难点,可以不同的改进方法。此后的系列文章,将重点对YOLOv8的如何改进进行详细的介绍,目的是为了给那些搞科研的同学需要创新点或者搞工程项目的朋友需要达到更好的效果提供自己的微薄帮助和参考。由于出到YOLOv8,YOLOv7、YOLOv5算法2020年至今已经涌现出大量改进论文,这个不论对于搞科研的同学或者已经工作的朋友来说,研究的价值和新颖度都不太够了,为与时俱进,以后改进算法以YOLOv7为基础,此前YOLOv5改进方法在YOLOv7同样适用,所以继续YOLOv5系列改进的序号。另外改进方法在YOLOv5等其他算法同样可以适用进行改进。希望能够对大家有帮助。

一、解决问题

此前也出了很多种注意力机制改进的方法,SE、CA、ECA、botnet、cotnet、swin transformer等等,大家可以翻看之前的记录进行学习。今天分享MHSA(多头注意力机制)这一注意力模块,尝试通过添加注意力机制的方法,来让网络更加关注待测目标的特征,提升检测效果。

二、基本原理

这个模块来源于NLP领域经典的Transformer模型,MHSA作为构成Transformer模型的基础单元模块之一。有兴趣的朋友可以看Transformer的原文进行学习原理。

 Transformer原文链接

8c43ec1a2f50499884804d802e925d10.png

b7b22136260e4a4a9509ad7b7939d448.png

 三、​添加方法

将MHSA模块融入YOLOv8中,运行结果如下:具体改进方法,网盘链接:https://pan.baidu.com/s/1Z-j4pq1cM0sLLcwR0eyWIQ 
提取码:关注后私信。

d6742e19dfc5495e8502663727600952.png

四、总结

预告一下:下一篇内容将继续分享深度学习算法相关改进方法。有兴趣的朋友可以关注一下我,有问题可以留言或者私聊我哦

PS:该方法不仅仅是适用改进YOLOv5,也可以改进其他的YOLO网络以及目标检测网络,比如YOLOv7、v6、v4、v3,Faster rcnn ,ssd等。

最后,有需要的请关注私信我吧。关注免费领取深度学习算法学习资料!

YOLO系列算法改进方法 | 目录一览表

猜你喜欢

转载自blog.csdn.net/m0_70388905/article/details/130256077