【学习笔记】YOLOv5训练自己的数据集

训练自己的数据集进行总结,方便接下来的学习

目录

1.设置文件夹

2.标记自己的数据集

2.1在百度图片上找到自己想要的图片并批量下载

2.2labelimg软件的使用

3.修改配置文件

3.1AOCAO parameter.yaml

3.2AOCAO model.yaml

4.开始训练

4.1改代码

4.2训练过程

4.3结果

5. 检测图片

5.1改代码

5.2运行代码

5.3查看结果


首先附上yolov5源代码
https://pan.baidu.com/s/1qFaLYRWO4uUGtv1XjqedXQ 
提取码:85Z8 
复制这段内容打开「百度网盘APP 即可获取」

参考【Yolov5】1.认真总结6000字Yolov5保姆级教程(2022.06.28全新版本v6.1)_yolov5教程_若oo尘的博客-CSDN博客

1.设置文件夹

文件夹按照如下目录创建

 

2.标记自己的数据集

2.1在百度图片上找到自己想要的图片并批量下载

参考博客

Python爬虫系列(二)——Python爬虫批量下载百度图片_爬虫下载图片_纸照片的博客-CSDN博客

将下载图片放在刚才建立的文件夹datasets——images——train中

将少部分下载图片放在datasets——images——test中(与train中图片不重复)

2.2labelimg软件的使用

参考博客

LabelImg(目标检测标注工具)的安装与使用教程-CSDN博客

将图片标记完后保存到datasets——labels——train中(test测试集同理)

保存的为xml格式,要转化为txt格式(笔记本打开)

转换代码如下

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join


def convert(size, box):
    # size=(width, height)  b=(xmin, xmax, ymin, ymax)
    # x_center = (xmax+xmin)/2        y_center = (ymax+ymin)/2
    # x = x_center / width            y = y_center / height
    # w = (xmax-xmin) / width         h = (ymax-ymin) / height

    x_center = (box[0] + box[1]) / 2.0
    y_center = (box[2] + box[3]) / 2.0
    x = x_center / size[0]
    y = y_center / size[1]

    w = (box[1] - box[0]) / size[0]
    h = (box[3] - box[2]) / size[1]

    # print(x, y, w, h)
    return (x, y, w, h)


def convert_annotation(xml_files_path, save_txt_files_path, classes):
    xml_files = os.listdir(xml_files_path)
    # print(xml_files)
    for xml_name in xml_files:
        # print(xml_name)
        xml_file = os.path.join(xml_files_path, xml_name)
        out_txt_path = os.path.join(save_txt_files_path, xml_name.split('.')[0] + '.txt')
        out_txt_f = open(out_txt_path, 'w')
        tree = ET.parse(xml_file)
        root = tree.getroot()
        size = root.find('size')
        w = int(size.find('width').text)
        h = int(size.find('height').text)

        for obj in root.iter('object'):
            difficult = obj.find('difficult').text
            cls = obj.find('name').text
            # if cls not in classes or int(difficult) == 1:
            #     continue
            cls_id = classes.index(cls)
            xmlbox = obj.find('bndbox')
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            # b=(xmin, xmax, ymin, ymax)
            # print(w, h, b)
            bb = convert((w, h), b)
            out_txt_f.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


if __name__ == "__main__":
    # 把forklift_pallet的voc的xml标签文件转化为yolo的txt标签文件
    # 1、需要转化的类别
    classes = ['凹槽']
#classes=['helmet','head_with_helmet','person_with_helmet','head','face','person_no_helmet','person']
    # 2、voc格式的xml标签文件路径
    xml_files1 = r'D:\pycharmProject\pythonProject1\AoXingCao\yolov5-5.0\aocao\datasets\labels\test\xml'
    # xml_files1 = r'C:/Users/GuoQiang/Desktop/数据集/标签1'

    # 3、转化为yolo格式的txt标签文件存储路径
    save_txt_files1 = r'D:\pycharmProject\pythonProject1\AoXingCao\yolov5-5.0\aocao\datasets\labels\test\txt'

    convert_annotation(xml_files1, save_txt_files1, classes)
需要更改的为xml目录以及txt目录

3.修改配置文件

3.1AOCAO parameter.yaml

将yolov5/data/coco128.yaml文件复制到与datasets同等级目录下,命名为Aocao_parameter.yaml

需要修改的是nc和names、path、train,nc为标签名的个数,names为标签的名字(我的标签只有一个是凹槽,所以nc为1)

path 为绝对路径,train和val分别为绝对路径下的路径,(我为了怕错就都写的全部路径)

# COCO 2017 dataset http://cocodataset.org - first 128 training images
# Train command: python train.py --data coco128.yaml
# Default dataset location is next to /yolov5:
#   /parent_folder
#     /coco128
#     /yolov5


# download command/URL (optional)
download: https://github.com/ultralytics/yolov5/releases/download/v1.0/coco128.zip

# train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
path: D:\pycharmProject\pythonProject1\yolo xunlian\AoXingCao\yolov5-5.0\Aocao\datasets
train: D:\pycharmProject\pythonProject1\yolo xunlian\AoXingCao\yolov5-5.0\Aocao\datasets\images\train  # 128 images
val: D:\pycharmProject\pythonProject1\yolo xunlian\AoXingCao\yolov5-5.0\Aocao\datasets\images\test  # 128 images

# number of classes
nc: 1

# class names
names: [ '凹槽']

3.2AOCAO model.yaml

将yolov5/models/yolov5s.yaml文件复制到与datasets同等级目录下,命名为Aocao model.yaml

需要修改的是nc种类

# parameters
nc: 1  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.50  # layer channel multiple

# anchors
anchors:
  - [10,13, 16,30, 33,23]  # P3/8
  - [30,61, 62,45, 59,119]  # P4/16
  - [116,90, 156,198, 373,326]  # P5/32

# YOLOv5 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Focus, [64, 3]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 9, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 1, SPP, [1024, [5, 9, 13]]],
   [-1, 3, C3, [1024, False]],  # 9
  ]

# YOLOv5 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)

   [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

4.开始训练

找到yolov5里面的train.py

4.1改代码

 (--cfg与--data两行代码需要自己补上)

479行:是我们训练的初始权重的位置,是以.pt结尾的文件,第一次训练用别人已经训练出来的权重。可能有朋友会想,自己训练的数据集和别人训练的数据集不一样,怎么能通用呢?实际上他们是通用的,后面训练会调整过来。而如果不填已有权重,那么训练效果可能会不好;

480行:训练模型文件,在本项目中对应wzry_model.yaml;

481行:数据集参数文件,在本项目中对于wzry_parameter.yaml;

482行:超参数设置,是人为设定的参数。包括学习率啥的等等,可不改;

483行:训练轮数,决定了训练时间与训练效果。如果选择训练模型是yolov5x.yaml,那么大约200轮数值就稳定下来了(收敛);

484行:批量处理文件数,这个要设置地小一些,否则会out of memory。这个决定了我们训练的速度;

485行:图片大小,虽然我们训练集的图片是已经固定下来了,但是传入神经网络时可以resize大小,太大了训练时间会很长,且有可能报错,这个根据自己情况调小一些;

487行:断续训练,如果说在训练过程中意外地中断,那么下一次可以在这里填True,会接着上一次runs/exp继续训练

496行:GPU加速,填0是电脑默认的CUDA,前提是电脑已经安装了CUDA才能GPU加速训练,安装过程可查博客

501行:多线程设置,越大读取数据越快,但是太大了也会报错

4.2训练过程

4.3结果

yolov5-5.0\runs\train\exp7\weights

best.pt和last.pt是我们训练出来的权重文件,比较重要,用于detect.py。last是最后一次的训练结果,best是效果最好的训练结果(只是看起来,但是泛化性不一定强)。

5. 检测图片

找到yolov5里面的detect.py

5.1改代码

217行:填我们训练好的权重文件路径

218行:我们要检测的文件,可以是图片、视频、摄像头。填0时为打开电脑默认摄像头

219行:数据集参数文件,同上

220行:图片大小,同上

221行:置信度,当检测出来的置信度大于该数值时才能显示出被检测到,就是显示出来的框框

222行:非极大抑制,具体不赘述了,自行查阅,可不改

224行:GPU加速,同上

注:\test或\run等会在代码运行时出现报错“OSError: [WinError 123] 文件名、目录名或卷标语法不正确。”,需将\test转化为反斜杠“/”就OK了

5.2运行代码

5.3查看结果

结果在yolov5-5.0\runs\detect\exp20

猜你喜欢

转载自blog.csdn.net/m0_68738477/article/details/129925142