用yolov5训练自己的数据集

用yolov5训练自己的数据集

一、配置环境

在windows中配置yolov5所需环境,具体操作请看:https://blog.csdn.net/Wxy971122/article/details/114641375

二、数据集的构建
  1. 本次主要收集汽车轮毂图片,做轮毂识别检测。
    收集对象为丰田汽车,一共483张图片,32种类型。
    在这里插入图片描述
  2. 在yolov5-master文件夹里创建data文件夹,并在其中创建以下四个文件夹,(因为我要进行不同品牌车辆的测试,所以这里我将丰田汽车的轮毂图片放在data\images\FT文件夹下):
    在这里插入图片描述
    其中Annotations文件夹中存放标记图片生成的.xml文件,文件名与图片名一一对应;
    images文件夹中存放收集的图片(.jpg格式);
    ImageSets文件夹中存放划分好的训练集和测试集文件;
    labels文件夹中存放label标注信息的txt文件, 与图片一一对应。
  3. 标记数据集
    先安装labelimg工具,在anaconda中进入yolov5环境中,输入pip install labelimg进行安装
    在这里插入图片描述
    安装完成后输入labelimg即可打开软件,在“Open Dir”中选择要标记的文件夹打开,在“Change Save Dir”中选择标记生成的.xml文件保存路径,存放在\data\Annotations\FT文件夹中即可。
    在这里插入图片描述
    标记完成后在Annotations文件夹中会生成与图片名一一对应的.xml文件。
    在这里插入图片描述
  4. 用pycharm打开yolov5-master,在yolov5-master根目录下新建文件夹“makeTxt.py”,用于将数据集分类成训练数据集和测试数据集,默认train,val,test按照8:1:1的比例进行随机分类,代码如下:
import os
import random


trainval_percent = 0.9
train_percent = 0.9
xmlfilepath = 'data/Annotations/FT'
txtsavepath = 'data/ImageSets/FT'
total_xml = os.listdir(xmlfilepath)

num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

ftrainval = open('data/ImageSets/FT/trainval.txt', 'w')
ftest = open('data/ImageSets/FT/test.txt', 'w')
ftrain = open('data/ImageSets/FT/train.txt', 'w')
fval = open('data/ImageSets/FT/val.txt', 'w')

for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftrain.write(name)
        else:
            fval.write(name)
    else:
        ftest.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

会生成四个文件夹,包含训练数据集和测试数据集的图片名称:
train.txt: 写着用于训练的图片名称
val.txt: 写着用于验证的图片名称
trainval.txt: train与val的合集
test.txt: 写着用于测试的图片名称

结果如下:
在这里插入图片描述
5. 新建文件“voc_label.py”,将图片数据集标注后的xml文件中的标注信息读取出来并写入txt文件,代码如下:

import xml.etree.ElementTree as ET
import pickle
import os
# os.listdir() 方法用于返回指定的文件夹包含的文件或文件夹的名字的列表
from os import listdir, getcwd
from os.path import join


sets = ['train', 'test', 'val']
classes = ['1', '2', '3', '4', '5', '6', '7', '8', '9', '10', '11', '12', '13', '14', '15', '16', '17', '18',
         '19', '20', '21', '22', '23', '24', '25', '26', '27', '28', '29', '30', '31', '32']


# 进行归一化操作
def convert(size, box):  # size:(原图w,原图h) , box:(xmin,xmax,ymin,ymax)
    dw = 1./size[0]      # 1/w
    dh = 1./size[1]      # 1/h
    x = (box[0] + box[1])/2.0   # 物体在图中的中心点x坐标
    y = (box[2] + box[3])/2.0   # 物体在图中的中心点y坐标
    w = box[1] - box[0]         # 物体实际像素宽度
    h = box[3] - box[2]         # 物体实际像素高度
    x = x*dw    # 物体中心点x的坐标比(相当于 x/原图w)
    w = w*dw    # 物体宽度的宽度比(相当于 w/原图w)
    y = y*dh    # 物体中心点y的坐标比(相当于 y/原图h)
    h = h*dh    # 物体宽度的宽度比(相当于 h/原图h)
    return (x, y, w, h)    # 返回 相对于原图的物体中心点的x坐标比,y坐标比,宽度比,高度比,取值范围[0-1]


def convert_annotation(image_id):
    '''
    将对应文件名的xml文件转化为label文件,xml文件包含了对应的bunding框以及图片长款大小等信息,
    通过对其解析,然后进行归一化最终读到label文件中去,也就是说
    一张图片文件对应一个xml文件,然后通过解析和归一化,能够将对应的信息保存到唯一一个label文件中去
    label文件中的格式:class x y w h  同时,一张图片对应的类别有多个,所以对应的bunding的信息也有多个
    '''
    # 对应的通过year 找到相应的文件夹,并且打开相应image_id的xml文件,其对应bund文件
    in_file = open('data/Annotations/FT/%s.xml' % (image_id), encoding='utf-8')
    # 准备在对应的image_id 中写入对应的label,分别为
    # <object-class> <x> <y> <width> <height>
    out_file = open('data/labels/FT/%s.txt' % (image_id), 'w', encoding='utf-8')
    # 解析xml文件
    tree = ET.parse(in_file)
    # 获得对应的键值对
    root = tree.getroot()
    # 获得图片的尺寸大小
    size = root.find('size')
    # 如果xml内的标记为空,增加判断条件
    if size != None:
        # 获得宽
        w = int(size.find('width').text)
        # 获得高
        h = int(size.find('height').text)
        # 遍历目标obj
        for obj in root.iter('object'):
            # 获得difficult ??
            difficult = obj.find('difficult').text
            # 获得类别 =string 类型
            cls = obj.find('name').text
            # 如果类别不是对应在我们预定好的class文件中,或difficult==1则跳过
            if cls not in classes or int(difficult) == 1:
                continue
            # 通过类别名称找到id
            cls_id = classes.index(cls)
            # 找到bndbox 对象
            xmlbox = obj.find('bndbox')
            # 获取对应的bndbox的数组 = ['xmin','xmax','ymin','ymax']
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            print(image_id, cls, b)
            # 带入进行归一化操作
            # w = 宽, h = 高, b= bndbox的数组 = ['xmin','xmax','ymin','ymax']
            bb = convert((w, h), b)
            # bb 对应的是归一化后的(x,y,w,h)
            # 生成 calss x y w h 在label文件中
            out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


# 返回当前工作目录
wd = getcwd()
print(wd)


for image_set in sets:
    '''
    对所有的文件数据集进行遍历
    做了两个工作:
    1.将所有图片文件都遍历一遍,并且将其所有的全路径都写在对应的txt文件中去,方便定位
    2.同时对所有的图片文件进行解析和转化,将其对应的bundingbox 以及类别的信息全部解析写到label 文件中去
         最后再通过直接读取文件,就能找到对应的label 信息
    '''
    # 先找labels文件夹如果不存在则创建
    if not os.path.exists('data/labels/FT/'):
        os.makedirs('data/labels/FT/')
    # 读取在ImageSets/Main 中的train、test..等文件的内容
    # 包含对应的文件名称
    image_ids = open('data/ImageSets/FT/%s.txt' % (image_set)).read().strip().split()
    # 打开对应的2012_train.txt 文件对其进行写入准备
    list_file = open('data/%s.txt' % (image_set), 'w')
    # 将对应的文件_id以及全路径写进去并换行
    for image_id in image_ids:
        list_file.write('data/images/FT/%s.jpg\n' % (image_id))
        # 调用  year = 年份  image_id = 对应的文件名_id
        convert_annotation(image_id)
    # 关闭文件
    list_file.close()

结果如下:
在这里插入图片描述
test.txt、 train.txt、 val.txt文件,train.txt等txt文件为划分后图像所在位置的绝对路径,如train.txt就含有所有训练集图像的绝对路径。:
在这里插入图片描述
运行后在labels文件夹中出现所有图片数据集的标注信息,如下图所示:
在这里插入图片描述
6. 在data目录下创建“ft.yaml”文件,其中train,val,test后面分别为训练集和测试集图片的路径, nc为数据集的类别数,names为类别的名称。大家根据自己的路径及参数进行设置,代码如下:

# train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: data/train.txt     # 390 images
val: data/val.txt         # 44 images
test: data/test.txt       # 49 images

# number of classes
nc: 32

# class names
names: [ '1', '2', '3', '4', '5', '6', '7', '8', '9', '10', '11', '12', '13', '14', '15', '16', '17', '18',
         '19', '20', '21', '22', '23', '24', '25', '26', '27', '28', '29', '30', '31', '32' ]

修改“yolov5x.yaml”中类别参数,这里将nc改为32。(用哪个权重做训练就修改哪个.yaml文件)
在这里插入图片描述
7. 修改“train.py”中的参数,这里因为用yolov5x做训练,需要内存较大,故将batch-size改为2。

if __name__ == '__main__':
    parser = argparse.ArgumentParser()
    # 加载的权重文件
    parser.add_argument('--weights', type=str, default='yolov5x.pt', help='initial weights path')
    # 模型配置文件,网络结构,使用修改好的yolov5m.yaml文件
    parser.add_argument('--cfg', type=str, default='models/yolov5x.yaml', help='model.yaml path')
    # 数据集配置文件,数据集路径,类名等,使用数据集方面的xx.yaml文件
    parser.add_argument('--data', type=str, default='data/ft.yaml', help='data.yaml path')
    # 超参数文件
    parser.add_argument('--hyp', type=str, default='data/hyp.scratch.yaml', help='hyperparameters path')
    # 训练总轮次,1个epoch等于使用训练集中的全部样本训练一次,值越大模型越精确,训练时间也越长
    parser.add_argument('--epochs', type=int, default=300)
    # 批次大小,一次训练所选取的样本数
    parser.add_argument('--batch-size', type=int, default=2, help='total batch size for all GPUs')
    # 输入图片分辨率大小,nargs='+'表示参数可设置一个或多个
    parser.add_argument('--img-size', nargs='+', type=int, default=[320, 320], help='[train, test] image sizes')
    # 是否采用矩形训练,默认False,开启后可显著的减少推理时间
    parser.add_argument('--rect', action='store_true', help='rectangular training')
    # 接着打断训练上次的结果接着训练
    parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')
    # 不保存模型,默认False
    parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')
    # 不进行test,默认False
    parser.add_argument('--notest', action='store_true', help='only test final epoch')
    # 不自动调整anchor,默认False
    parser.add_argument('--noautoanchor', action='store_true', help='disable autoanchor check')
    # 是否进行超参数进化,默认False
    parser.add_argument('--evolve', action='store_true', help='evolve hyperparameters')
    # 谷歌云盘bucket,一般不会用到
    parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')
    # 是否提前缓存图片到内存,以加快训练速度,默认False
    parser.add_argument('--cache-images', action='store_true', help='cache images for faster training')
    # 选用加权图像进行训练
    parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')
    # 训练的设备,cpu;0(表示一个gpu设备cuda:0);0,1,2,3(多个gpu设备)。值为空时,训练时默认使用计算机自带的显卡或CPU
    parser.add_argument('--device', default='0', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
    # 是否进行多尺度训练,默认False
    parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')
    # 数据集是否只有一个类别,默认False
    parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')
    # 是否使用adam优化器
    parser.add_argument('--adam', action='store_true', help='use torch.optim.Adam() optimizer')
    # 是否使用跨卡同步BN,在DDP模式使用
    parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')
    # gpu编号
    parser.add_argument('--local_rank', type=int, default=-1, help='DDP parameter, do not modify')
    # W&B记录的图像数,最大为100
    parser.add_argument('--log-imgs', type=int, default=16, help='number of images for W&B logging, max 100')
    # 记录最终训练的模型,即last.pt
    parser.add_argument('--log-artifacts', action='store_true', help='log artifacts, i.e. final trained model')
    # dataloader的最大worker数量
    parser.add_argument('--workers', type=int, default=4, help='maximum number of dataloader workers')
    # 训练结果所存放的路径,默认为runs/train
    parser.add_argument('--project', default='runs/train', help='save to project/name')
    # 训练结果所在文件夹的名称,默认为exp
    parser.add_argument('--name', default='exp', help='save to project/name')
    # 若现有的project/name存在,则不进行递增
    parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
    parser.add_argument('--quad', action='store_true', help='quad dataloader')
    opt = parser.parse_args()

修改好参数就可以开始进行训练了,这里列出一些可能出现的错误:
(1)api_key not configured在这里插入图片描述
出现此错误可在yolov5环境中输入:wandb login
在这里插入图片描述
进入给的网址进行注册即可得到API key。
(2)no module named ‘ipywidgets’
在这里插入图片描述
出现此错误可在yolov5环境中输入:pip install ipywidgets
在这里插入图片描述
(3)CUDA out of memory在这里插入图片描述
出现此错误说明CUDA内存不够,可将batch-size改小一些。

如果上述错误都没有出现,那程序就可以直接跑起来啦:
在这里插入图片描述
这样就说明成功跑起来了,正式开始训练,过程需要耐心等待。
训练完成后会在\runs\train中生成exp文件夹,包括训练的结果,其中result.png如下:
在这里插入图片描述
8. 训练过程结束了,接下来就可以对训练结果进行测试了,首先打开“test.py”文件,对其中的参数进行修改:
在这里插入图片描述
结果如下:
在这里插入图片描述
修改“detect.py”文件中的参数并测试:
在这里插入图片描述
结果如下:
在这里插入图片描述
结果可在\runs\detect中生成的exp文件夹中查看,本次测试结果483张照片全部识别正确。
在这里插入图片描述
在这里插入图片描述
至此,用yolov5训练自己的数据集并进行检测就全部完成啦。

猜你喜欢

转载自blog.csdn.net/Wxy971122/article/details/114841452