YOLO技术概要学习笔记3——YOLOV4到YOLOV8

一、前言

实时物体检测已经成为众多邻域应用的关键组成部分,这些领域包括:自动驾驶车辆、机器人、视频监控和增强现实等。在众多物体检测算法中,近年来,YOLO(You Only Look Once)框架以其卓越的速度和准确性脱颖而出,实际证明能够快速可靠地识别图像中的物体。自诞生以来,YOLO经过了多次迭代,每个版本都在前一版本的基础上进行改进,不断在提高性能,截至本文发稿,YOLO框架从V1已经更新到了v8。作为机器视觉技术应用的我们,有必要对YOLO的技术演进进行系统了解,熟悉YOLO每个版本之间的关键创新、差异和改进(如网络设计、损失函数修改、锚框适应和输入分辨率缩放等)。从而更好地把握YOLO的技术发展主脉搏,更好地选择应用相关的视觉识别技术。YOLO技术概要学习笔记共三篇,主要遵照国外文章《A COMPREHENSIVE REVIEW OF YOLO: FROM YOLOV1 AND
BEYOND》的主线进行学习,通过综合其它文献对YOLO技术进行细品,形成理性认识。

二、YOLOv4

YOLOv4是由Alexey Bochkovskiy、Chien-Yao Wang和Hong-YuanMark Liao于2020年4月在ArXiv上发布。YOLOv4保持了相同的YOLO理念——实时、开源、单次拍摄和darknet框架——改进是如此令人满意,以至于社区迅速接受了这个版本作为官方的YOLOv4。YOLOv4试图通过对许多被归类为性能增强包(Bag-of-freebies)和特殊增强包(bag-of-specials)的变化进行实验,找到最佳平衡。(Bag-of-freebies)是只改变训练策略并增加训练成本但不增加推理时间的方法,最常见的是数据增

猜你喜欢

转载自blog.csdn.net/kanbide/article/details/131320605