目标检测---利用yolov5s训练SIXray目标检测模型

  1. VOC标签格式转yolo格式并划分训练集和测试集

    网上获取到的目标检测的SIXray数据集资源标签的格式是VOC(xml格式)的,而yolov5训练所需要的文件格式是yolo(txt格式)的,这里就需要对xml格式的标签文件转换为txt文件。同时训练自己的yolov5检测模型的时候,数据集需要划分为训练集和验证集。这里提供将xml格式的标注文件转换为txt格式的标注文件的代码,并按比例划分为训练集和验证集。先上代码再讲解代码的注意事项。

import xml.etree.ElementTree as ET

import pickle

import os

from os import listdir, getcwd

from os.path import join

import random

from shutil import copyfile

classes = ["Gun", "Knife", "Wrench", "Pliers", "Scissors", "Hammer"]

扫描二维码关注公众号,回复: 14812287 查看本文章

TRAIN_RATIO = 70

def clear_hidden_files(path):

    dir_list = os.listdir(path)

    for i in dir_list:

        abspath = os.path.join(os.path.abspath(path), i)

        if os.path.isfile(abspath):

            if i.startswith("._"):

                os.remove(abspath)

        else:

            clear_hidden_files(abspath)

def convert(size, box):

    dw = 1. / size[0]

    dh = 1. / size[1]

    x = (box[0] + box[1]) / 2.0

    y = (box[2] + box[3]) / 2.0

    w = box[1] - box[0]

    h = box[3] - box[2]

    x = x * dw

    w = w * dw

    y = y * dh

    h = h * dh

    return (x, y, w, h)

def convert_annotation(image_id):

    in_file = open('VOCdevkit/VOC2007/Annotations/%s.xml' % image_id)

    out_file = open('VOCdevkit/VOC2007/YOLOLabels/%s.txt' % image_id, 'w')

    tree = ET.parse(in_file)

    root = tree.getroot()

    size = root.find('size')

    w = int(size.find('width').text)

    h = int(size.find('height').text)

    for obj in root.iter('object'):

        difficult = obj.find('difficult').text

        cls = obj.find('name').text

        if cls not in classes or int(difficult) == 1:

            continue

        cls_id = classes.index(cls)

        xmlbox = obj.find('bndbox')

        b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),

             float(xmlbox.find('ymax').text))

        bb = convert((w, h), b)

        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')

    in_file.close()

    out_file.close()

wd = os.getcwd()

wd = os.getcwd()

data_base_dir = os.path.join(wd, "VOCdevkit/")

if not os.path.isdir(data_base_dir):

    os.mkdir(data_base_dir)

work_sapce_dir = os.path.join(data_base_dir, "VOC2007/")

if not os.path.isdir(work_sapce_dir):

    os.mkdir(work_sapce_dir)

annotation_dir = os.path.join(work_sapce_dir, "Annotations/")

if not os.path.isdir(annotation_dir):

    os.mkdir(annotation_dir)

clear_hidden_files(annotation_dir)

image_dir = os.path.join(work_sapce_dir, "JPEGImages/")

if not os.path.isdir(image_dir):

    os.mkdir(image_dir)

clear_hidden_files(image_dir)

yolo_labels_dir = os.path.join(work_sapce_dir, "YOLOLabels/")

if not os.path.isdir(yolo_labels_dir):

    os.mkdir(yolo_labels_dir)

clear_hidden_files(yolo_labels_dir)

yolov5_images_dir = os.path.join(data_base_dir, "images/")

if not os.path.isdir(yolov5_images_dir):

    os.mkdir(yolov5_images_dir)

clear_hidden_files(yolov5_images_dir)

yolov5_labels_dir = os.path.join(data_base_dir, "labels/")

if not os.path.isdir(yolov5_labels_dir):

    os.mkdir(yolov5_labels_dir)

clear_hidden_files(yolov5_labels_dir)

yolov5_images_train_dir = os.path.join(yolov5_images_dir, "train/")

if not os.path.isdir(yolov5_images_train_dir):

    os.mkdir(yolov5_images_train_dir)

clear_hidden_files(yolov5_images_train_dir)

yolov5_images_test_dir = os.path.join(yolov5_images_dir, "val/")

if not os.path.isdir(yolov5_images_test_dir):

    os.mkdir(yolov5_images_test_dir)

clear_hidden_files(yolov5_images_test_dir)

yolov5_labels_train_dir = os.path.join(yolov5_labels_dir, "train/")

if not os.path.isdir(yolov5_labels_train_dir):

    os.mkdir(yolov5_labels_train_dir)

clear_hidden_files(yolov5_labels_train_dir)

yolov5_labels_test_dir = os.path.join(yolov5_labels_dir, "val/")

if not os.path.isdir(yolov5_labels_test_dir):

    os.mkdir(yolov5_labels_test_dir)

clear_hidden_files(yolov5_labels_test_dir)

train_file = open(os.path.join(wd, "yolov5_train.txt"), 'w')

test_file = open(os.path.join(wd, "yolov5_val.txt"), 'w')

train_file.close()

test_file.close()

train_file = open(os.path.join(wd, "yolov5_train.txt"), 'a')

test_file = open(os.path.join(wd, "yolov5_val.txt"), 'a')

list_imgs = os.listdir(image_dir)  # list image files

prob = random.randint(1, 100)

print("Probability: %d" % prob)

for i in range(0, len(list_imgs)):

    path = os.path.join(image_dir, list_imgs[i])

    if os.path.isfile(path):

        image_path = image_dir + list_imgs[i]

        voc_path = list_imgs[i]

        (nameWithoutExtention, extention) = os.path.splitext(os.path.basename(image_path))

        (voc_nameWithoutExtention, voc_extention) = os.path.splitext(os.path.basename(voc_path))

        annotation_name = nameWithoutExtention + '.xml'

        annotation_path = os.path.join(annotation_dir, annotation_name)

        label_name = nameWithoutExtention + '.txt'

        label_path = os.path.join(yolo_labels_dir, label_name)

    prob = random.randint(1, 100)

    print("Probability: %d" % prob)

    if (prob < TRAIN_RATIO):  # train dataset

        if os.path.exists(annotation_path):

            train_file.write(image_path + '\n')

            convert_annotation(nameWithoutExtention)  # convert label

            copyfile(image_path, yolov5_images_train_dir + voc_path)

            copyfile(label_path, yolov5_labels_train_dir + label_name)

    else:  # test dataset

        if os.path.exists(annotation_path):

            test_file.write(image_path + '\n')

            convert_annotation(nameWithoutExtention)  # convert label

            copyfile(image_path, yolov5_images_test_dir + voc_path)

            copyfile(label_path, yolov5_labels_test_dir + label_name)

train_file.close()

test_file.close()

首先数据集的格式结构必须严格按照如图的样式来,因为代码已经将文件名写死了。其实这样也好,因为统一就会规范 。

Annotations里面存放着xml格式的标签文件;JPEGImages里面存放着照片数据文件

特别要注意的是,classes里面必须正确填写xml里面已经标注好的类,要不然生成的txt的文件是不对的。TRAIN_RATIO是训练集和验证集的比例,当等于70的时候,说明划分70%给训练集,30%给验证集。

将代码和数据在同一目录下运行,得到如下的结果

     在VOCdevkit目录下生成images和labels文件夹,文件夹下分别生成了train文件夹和val文件夹,里面分别保存着训练集的照片和txt格式的标签,还有验证集的照片和txt格式的标签。images文件夹和labels文件夹就是训练yolov5模型所需的训练集和验证集。在VOCdevkit/VOC2007目录下还生成了一个YOLOLabels文件夹,里面存放着所有的txt格式的标签文件。

至此,xml格式的标签文件转换为txt格式的标签文件并划分为训练集和测试集就讲完了。

  1. 项目代码结构整体介绍

    将yolov5的代码用IDE打开(我用的是pycharm),打开之后整个代码目录如下图:

    现在来对代码的整体目录做一个介绍:

data:主要是存放一些超参数的配置文件(这些文件(yaml文件)是用来配置训练集和测试集还有验证集的路径的,其中还包括目标检测的种类数和种类的名称);还有一些官方提供测试的图片。如果是训练自己的数据集的话,那么就需要修改其中的yaml文件。但是自己的数据集不建议放在这个路径下面,而是建议把数据集放到yolov5项目的同级目录下面。

models:里面主要是一些网络构建的配置文件和函数,其中包含了该项目的四个不同的版本,分别为是s、m、l、x。从名字就可以看出,这几个版本的大小。他们的检测测度分别都是从快到慢,但是精确度分别是从低到高。这就是所谓的鱼和熊掌不可兼得。如果训练自己的数据集的话,就需要修改这里面相对应的yaml文件来训练自己模型。

utils:存放的是工具类的函数,里面有loss函数,metrics函数,plots函数等等。

weights:放置训练好的权重参数。

detect.py:利用训练好的权重参数进行目标检测,可以进行图像、视频和摄像头的检测。

train.py:训练自己的数据集的函数。

test.py:测试训练的结果的函数。

requirements.txt:这是一个文本文件,里面写着使用yolov5项目的环境依赖包的一些版本,可以利用该文本导入相应版本的包。

以上就是yolov5项目代码的整体介绍。我们训练和测试自己的数据集就是利用到如上的代码。

  1. 环境的安装和依赖的安装

打开requirements.txt这个文件,可以看到里面有很多的依赖库和其对应的版本要求。我们打开pycharm的命令终端,在中输入如下的命令,就可以安装了。

pip install -r requirements.txt

  1. 获得预训练权重

一般为了缩短网络的训练时间,并达到更好的精度,我们一般加载预训练权重进行网络的训练。而yolov5的5.0版本给我们提供了几个预训练权重,我们可以对应我们不同的需求选择不同的版本的预训练权重。通过如下的图可以获得权重的名字和大小信息,可以预料的到,预训练权重越大,训练出来的精度就会相对来说越高,但是其检测的速度就会越慢。预训练权重可以通过这个网址(https://github.com/ultralytics/yolov5/releases)进行下载,本次训练自己的数据集用的预训练权重为yolov5s.pt。

5. 训练自己的模型

5.1修改数据配置文件

    预训练模型和数据集都准备好了,就可以开始训练自己的yolov5目标检测模型了,训练目标检测模型需要修改两个yaml文件中的参数。一个是data目录下的相应的yaml文件,一个是model目录文件下的相应的yaml文件。

    修改data目录下的相应的yaml文件。找到目录下的voc.yaml文件,将该文件复制一份,将复制的文件重命名,最好和项目相关,这样方便后面操作。我这里修改为xraycheck.yaml。该项目是对XIXray数据集的检测识别。

    打开这个文件夹修改其中的参数,首先将箭头1中的那一行代码注释掉(我已经注释掉了),如果不注释这行代码训练的时候会报错;箭头2中需要将训练和测试的数据集的路径填上(最好要填绝对路径,有时候由目录结构的问题会莫名奇妙的报错);箭头3中需要检测的类别数,我这里是识别枪、刀、扳手、钳子、剪刀、锤子,所以这里填写6;最后箭头4中填写需要识别的类别的名字(必须是英文,否则会乱码识别不出来)。到这里和data目录下的yaml文件就修改好了。

5.2 修改模型配置文件

    由于该项目使用的是yolov5s.pt这个预训练权重,所以要使用models目录下的yolov5s.yaml文件中的相应参数(因为不同的预训练权重对应着不同的网络层数,所以用错预训练权重会报错)。同上修改data目录下的yaml文件一样,我们最好将yolov5s.yaml文件复制一份,然后将其重命名,我将其重命名为xraycheck.yaml。

打开xraycheck.yaml文件只需要修改如图中的数字就好了,这里是识别六个类别。

至此,相应的配置参数就修改好了。

5.3训练自己的模型启用tensorbord查看参数

       如果上面的数据集和两个yaml文件的参数都修改好了的话,就可以开始yolov5的训练了。首先我们找到train.py这个py文件。

然后找到主函数的入口,这里面有模型的主要参数。训练自己的模型需要修改如下几个参数就可以训练了。首先将weights权重的路径填写到对应的参数里面,然后将修好好的models模型的yolov5s.yaml文件路径填写到相应的参数里面,最后将data数据的xraycheck.yaml文件路径填写到相对于的参数里面。这几个参数就必须要修改的参数。

         还有几个需要根据自己的需求来更改的参数:

    首先是模型的训练轮次,这里是训练的150轮。

         其次是输入图片的数量和工作的核心数,这里每个人的电脑都不一样,所以这里每个人和自己的电脑的性能来。这里可以根据我的电脑的配置做参考,我的电脑是拯救者R9000P,3070版本的显卡,cpu的核心数是8核。每个人的电脑配置不一样,所以可以根据自己的电脑配置来修改参数。

 

以上都设置好了就可以训练了。但是pycharm的用户可能会出现如下的报错。这是说明虚拟内存不够了。

可以根据如下的操作来修改,在utils路径下找到datasets.py这个文件,将里面的第81行里面的参数nw改完0就可以了。

 

        至此,就可以运行train.py函数训练自己的模型了。

3.4启用tensorbord查看参数

    yolov5里面有写好的tensorbord函数,可以运行命令就可以调用tensorbord,然后查看tensorbord了。首先打开pycharm的命令控制终端,输入如下命令,就会出现一个网址地址,将那行网址复制下来到浏览器打开就可以看到训练的过程了

tensorboard --logdir=runs/train

如果模型已经训练好了,但是我们还想用tensorbord查看此模型的训练过程,就需要输入如下的命令。就可以看到模型的训练结果了。

tensorboard --logdir=runs

如下图所示,这是已经训练了150轮了。

4 推理测试

    等到数据训练好了以后,就会在主目录下产生一个run文件夹,在run/train/exp/weights目录下会产生两个权重文件,一个是最后一轮的权重文件,一个是最好的权重文件,一会我们就要利用这个最好的权重文件来做推理测试。除此以外还会产生一些验证文件的图片等一些文件。

找到主目录下的detect.py文件,打开该文件。

然后找到主函数的入口,这里面有模型的主要参数。模型的主要参数解析如下所示。

    

这里需要将刚刚训练好的最好的权重传入到推理函数中去。然后就可以对图像视频进行推理了。

对视频/图片进行测试推理时,将如下参数修改成视频/图片的路径,然后运行detect.py就可以进行测试了。

    

推理测试结束以后,在run下面会生成一个detect目录,推理结果会保存在exp目录下。如图所示。

这里以图片的推理结果为例,如下所示。

 

利用摄像头进行测试只需将路径改写为0就可以。

利用摄像头进行测试只需将路径改写为0就好了。但是好像还是会报错,报错如下。

TypeError: argument of type 'int' is not iterable.

         解决方法:首先找到datasets.py这个py文件。

        打开文件,找到第279行代码,给两个url参数加上str就可以了,如图所示,就可以完美运行电脑的摄像头了。 

         至此yolov5训练自己的模型就全部完成。

猜你喜欢

转载自blog.csdn.net/m0_54111890/article/details/122308406