改进YOLOv8 | 主干网络篇 | YOLOv8 更换主干网络之 ConvNext | 《纯卷积结构超越 ViTs》

在这里插入图片描述
在这里插入图片描述
论文地址:https://arxiv.org/pdf/2201.03545.pdf
代码地址:https://github.com/facebookresearch/ConvNeXt

视觉识别的“Roaring 20年代”始于视觉变换器(ViTs)的引入,它很快取代了ConvNets,成为最先进的图像分类模型。另一方面,普通ViTs在应用于一般的计算机视觉任务(如目标检测和语义分割)时面临困难。正是层次变换器(例如,Swin变换器)重新引入了几个ConvNet Prior,才使得Transformers作为一个通用的视觉骨干网络切实可行,并在各种视觉任务中表现出卓越的性能。然而,这种混合方法的有效性在很大程度上仍然归功于Transformer的固有优势,而不是卷积固有的归纳偏置。在这项工作中,我们重新审视了设计空间,并测试了纯ConvNet所能达到的极限。我们将一个标准的ResNet逐步“现代化”,使其朝着视觉Transformer的设计靠拢,并发现了几个关键组件,这些组件在这一过程中会导致性能差异。这次探索的结果是产生了一系列纯ConvNe

猜你喜欢

转载自blog.csdn.net/weixin_43694096/article/details/131478498
今日推荐