基于YOLOv5的PCB板缺陷检测

一、数据集介绍

印刷电路板(PCB)瑕疵数据集:数据下载链接,是一个公共的合成PCB数据集,由北京大学发布,其中包含1386张图像以及6种缺陷(缺失孔,鼠标咬伤,开路,短路,杂散,伪铜),用于检测,分类和配准任务。选取其中445张图像进行了训练(下载了别人的)。

数据样本示例:

在这里插入图片描述

二、环境配置

1、github官网下载yolov5源码:https://github.com/ultralytics/yolov5

2、Anaconda安装(省略)

3、创建新的环境(python=3.6就行)

4、安装pytorch:https://pytorch.org/get-started/previous-versions/

建议安装pytorch1.7版本

pip install torch==1.7.1+cu110 torchvision==0.8.2+cu110 torchaudio==0.7.2 -f https://download.pytorch.org/whl/torch_stable.html

5、根据下载的yolov5中的requirements.txt进行安装(缺啥补啥)

进入文件夹cd …/yolov5-master

pip install -r requirements.txt

三、构建训练数据集

1、先构建数据集文件夹

格式如下(官网下载的PCB数据可能是按照缺陷类划分文件夹的,需要手段复制到Annotations等文件夹中):

├── data
│   ├── Annotations  进行 detection 任务时的标签文件,xml 形式,文件名与图片名一一对应
│   ├── images  存放 .jpg 格式的图片文件
│   ├── ImageSets  存放的是分类和检测的数据集分割文件,包含 train.txt,val.txt    		,trainval.txt,test.txt
│   ├── labels  存放label标注信息的txt文件,与图片一一对应

├── ImageSets(train,val,test建议按照811比例划分)
│   ├── train.txt  写着用于训练的图片名称
│   ├── val.txt  写着用于验证的图片名称
│   ├── trainval.txt  train与val的合集
│   ├── test.txt  写着用于测试的图片名称

2、训练数据生成,分为两个代码(训练集划分代码与用于yolo训练的txt格式代码)

(1)训练集划分代码

用途:主要是将数据集分类成训练数据集和测试数据集,默认train,val,test按照比例进行随机分类,运行后ImagesSets文件夹中会出现四个文件,主要是生成的训练数据集和测试数据集的图片名称,如下图。同时data目录下也会出现这四个文件,内容是训练数据集和测试数据集的图片路径。

import os
import random


trainval_percent = 0.9
train_percent = 0.9
xmlfilepath = 'D:\\Dataset\\PCB_dataset\\data\\Annotations'
txtsavepath = 'D:\\Dataset\\PCB_dataset\\data\\ImageSets'
total_xml = os.listdir(xmlfilepath)

num = len(total_xml)
list = range(num)
tv = int(num * trainval_percent)
tr = int(tv * train_percent)
trainval = random.sample(list, tv)
train = random.sample(trainval, tr)

ftrainval = open('D:\\Dataset\\PCB_dataset\\data\\ImageSets\\trainval.txt', 'w')
ftest = open('D:\\Dataset\\PCB_dataset\\data\\ImageSets\\test.txt', 'w')
ftrain = open('D:\\Dataset\\PCB_dataset\\data\\ImageSets\\train.txt', 'w')
fval = open('D:\\Dataset\\PCB_dataset\\data\\ImageSets\\val.txt', 'w')

for i in list:
    name = total_xml[i][:-4] + '\n'
    if i in trainval:
        ftrainval.write(name)
        if i in train:
            ftrain.write(name)
        else:
            fval.write(name)
    else:
        ftest.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

(b)用于yolo训练的txt格式代码

用途:主要是将图片数据集标注后的xml文件中的标注信息读取出来并写入txt文件,运行后在labels文件夹中出现所有图片数据集的标注信息

# xml解析包

import xml.etree.ElementTree as ET
import pickle
import os

# os.listdir() 方法用于返回指定的文件夹包含的文件或文件夹的名字的列表

from os import listdir, getcwd
from os.path import join


sets = ['train', 'test', 'val']
classes = ['missing_hole', 'mouse_bite', 'open_circuit', 'short', 'spur', 'spurious_copper']


# 进行归一化操作

def convert(size, box):  # size:(原图w,原图h) , box:(xmin,xmax,ymin,ymax)
    dw = 1./size[0]     # 1/w
    dh = 1./size[1]     # 1/h
    x = (box[0] + box[1])/2.0   # 物体在图中的中心点x坐标
    y = (box[2] + box[3])/2.0   # 物体在图中的中心点y坐标
    w = box[1] - box[0]         # 物体实际像素宽度
    h = box[3] - box[2]         # 物体实际像素高度
    x = x*dw    # 物体中心点x的坐标比(相当于 x/原图w)
    w = w*dw    # 物体宽度的宽度比(相当于 w/原图w)
    y = y*dh    # 物体中心点y的坐标比(相当于 y/原图h)
    h = h*dh    # 物体宽度的宽度比(相当于 h/原图h)
    return (x, y, w, h)    # 返回 相对于原图的物体中心点的x坐标比,y坐标比,宽度比,高度比,取值范围[0-1]


# year ='2012', 对应图片的id(文件名)

def convert_annotation(image_id):
    '''
    将对应文件名的xml文件转化为label文件,xml文件包含了对应的bunding框以及图片长款大小等信息,
    通过对其解析,然后进行归一化最终读到label文件中去,也就是说
    一张图片文件对应一个xml文件,然后通过解析和归一化,能够将对应的信息保存到唯一一个label文件中去
    labal文件中的格式:calss x y w h  同时,一张图片对应的类别有多个,所以对应的bunding的信息也有多个
    '''
    # 对应的通过year 找到相应的文件夹,并且打开相应image_id的xml文件,其对应bund文件
    in_file = open('D:\\Dataset\\PCB_dataset\\data\\Annotations\\%s.xml' % (image_id), encoding='utf-8')
    # 准备在对应的image_id 中写入对应的label,分别为
    # <object-class> <x> <y> <width> <height>
    out_file = open('D:\\Dataset\\PCB_dataset\\data\\labels\\%s.txt' % (image_id), 'w', encoding='utf-8')
    # 解析xml文件
    tree = ET.parse(in_file)
    # 获得对应的键值对
    root = tree.getroot()
    # 获得图片的尺寸大小
    size = root.find('size')
    # 如果xml内的标记为空,增加判断条件
    if size != None:
        # 获得宽
        w = int(size.find('width').text)
        # 获得高
        h = int(size.find('height').text)
        # 遍历目标obj
        for obj in root.iter('object'):
            # 获得difficult ??
            difficult = obj.find('difficult').text
            # 获得类别 =string 类型
            cls = obj.find('name').text
            # 如果类别不是对应在我们预定好的class文件中,或difficult==1则跳过
            if cls not in classes or int(difficult) == 1:
                continue
            # 通过类别名称找到id
            cls_id = classes.index(cls)
            # 找到bndbox 对象
            xmlbox = obj.find('bndbox')
            # 获取对应的bndbox的数组 = ['xmin','xmax','ymin','ymax']
            b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
                 float(xmlbox.find('ymax').text))
            print(image_id, cls, b)
            # 带入进行归一化操作
            # w = 宽, h = 高, b= bndbox的数组 = ['xmin','xmax','ymin','ymax']
            bb = convert((w, h), b)
            # bb 对应的是归一化后的(x,y,w,h)
            # 生成 calss x y w h 在label文件中
            out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')


# 返回当前工作目录

wd = getcwd()
print(wd)


for image_set in sets:
    '''
    对所有的文件数据集进行遍历
    做了两个工作:
    1.将所有图片文件都遍历一遍,并且将其所有的全路径都写在对应的txt文件中去,方便定位
    2.同时对所有的图片文件进行解析和转化,将其对应的bundingbox 以及类别的信息全部解析写到label 文件中去
         最后再通过直接读取文件,就能找到对应的label 信息
    '''
    # 先找labels文件夹如果不存在则创建
    if not os.path.exists('D:\\Dataset\\PCB_dataset\\data\\labels\\'):
        os.makedirs('D:\\Dataset\\PCB_dataset\\data\\labels\\')
    # 读取在ImageSets/Main 中的train、test..等文件的内容
    # 包含对应的文件名称
    image_ids = open('D:\\Dataset\\PCB_dataset\\data\\ImageSets\\%s.txt' % (image_set)).read().strip().split()
    # 打开对应的2012_train.txt 文件对其进行写入准备
    list_file = open('D:\\Dataset\\PCB_dataset\\data\\%s.txt' % (image_set), 'w')
    # 将对应的文件_id以及全路径写进去并换行
    for image_id in image_ids:
        list_file.write('D:\\Dataset\\PCB_dataset\\data\\images\\%s.jpg\n' % (image_id))
        # 调用  year = 年份  image_id = 对应的文件名_id
        convert_annotation(image_id)
    # 关闭文件
    list_file.close()

# os.system(‘comand’) 会执行括号中的命令,如果命令成功执行,这条语句返回0,否则返回1

# os.system("cat 2007_train.txt 2007_val.txt 2012_train.txt 2012_val.txt > train.txt")

# os.system("cat 2007_train.txt 2007_val.txt 2007_test.txt 2012_train.txt 2012_val.txt > train.all.txt")

label文件夹中某文件内容如下:

在这里插入图片描述

四、修改配置文件

1、数据集方面:…\yolov5-master\data文件夹中,新建一个yaml文件,内容设置如下:

train: D:\\Dataset\\PCB_dataset\\data\\train.txt  
val: D:\\Dataset\\PCB_dataset\\data\\val.txt  
test: D:\\Dataset\\PCB_dataset\\data\\test.txt  

# Classes

nc: 6  # number of classes
names: [ 'missing_hole', 'mouse_bite', 'open_circuit', 'short', 'spur', 'spurious_copper' ]  # class names

注意:路径,类别、标签名字(与标注文件中一致)

2、网络参数方面:…\yolov5-master\model文件夹中,对yolov5s.yaml(根据自己选择的模型而定)文件内容修改。

# Parameters

nc: 6  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.50  # layer channel multiple

更改其中的nc即标签类别数目。

3、trian.py修改

主要用到的几个参数:–weights,–cfg,–data,–epochs,–batch-size,–img-size,–project,-workers

重点注意:–weights,–cfg,–data,其他的默认即可(batch_size,workers根据自己电脑属性进行设置)。

我的–weights,–cfg,–data设置如下:

parser.add_argument('--weights', type=str, default='yolov5s.pt', help='initial weights path')
    parser.add_argument('--cfg', type=str, default='models/yolov5s.yaml', help='model.yaml path')
    parser.add_argument('--data', type=str, default='data/PCB.yaml', help='dataset.yaml path')

五、训练及tensorboard可视化

1、训练

两种方式:pycharm中运行或者终端cmd运行(看个人喜好)

2、训练过程可视化

啰嗦一句:yolov5-master文件夹中一个runs文件夹,其中有检测结果和训练结果,如…\runs\train\exp\results.txt中保存了每个epoch训练信息,如下所示(第一排属性是我补的):

在这里插入图片描述

可视化操作:

a、打开一个新的终端,激活环境(我激活的不是训练中的环境,而是一个新的环境,其中没有pytorch,而是装了tensorflow2.0的环境)

b、cd …\yolov5-mater

c、tensorboard --logdir=runs或者python -m tensorboard.main --logdir=runs(我的前一种报错了,换的后一种才行)

在这里插入图片描述

d、复制其中的网址,去浏览器中打开(推荐谷歌)

e、可视化结果如下(能够边训练边观察):

在这里插入图片描述

3、在GTX2070super8G显卡训练结果如下(batch_size=32,workers=4):

在这里插入图片描述

4、训练权重在…\runs\train\exp\weights文件夹中,有两个权重文件best.pt与last.pt(一个最好的epoch,一个最后的epoch),其他训练结果和训练过程可视化结果也能在exp文件夹中找到(真为yolov5作者点赞)

在这里插入图片描述

注意:可能…\runs\train文件夹中会有多个exp文件,如exp1,exp2等,这是代表每一次新的训练。

六、效果测试

在CMD终端运行:

python detect.py --source ..\01_short_02.jpg  --weights ..\runs\train\exp24\weights\best.pt

测试结果如下(好像效果不咋地,可以更换其他yolov5系列的网络试试,或者聚类重选anchor):

在这里插入图片描述

注:在pycharm中运行检测,只需更改train.py中的def parse_opt()函数中的–source与–weights即可。

七、遇到的BUG

1、UnicodeDecodeError: ‘gbk‘ codec can‘t decode byte 0xaf in position

问题:文件保存时编码类型原因,这里只支持encoding=‘UTF-8’

解决措施参考:https://blog.csdn.net/qq_35034711/article/details/108448465

2、测试torchhub时报错

解决:降低了下requests版本就可以了

3、tensorboard --logdir logs Fatal error in launcher: Unable to create process using…

解决:logdir定位错误,另一个方法可以使用python -m tensorboard.main --logdir logs

参考:https://blog.csdn.net/Aa545620073/article/details/89374112

八、测试下torchhub(只需要几行代码就能完成检测)

# ValueError: check_hostname requires server_hostname 请降低requests版本,这里requests-2.21.0

import torch

# Model
model = torch.hub.load('ultralytics/yolov5', 'yolov5s')  # or yolov5m, yolov5x, custom

# Images
img = 'https://ultralytics.com/images/zidane.jpg'  # or file, PIL, OpenCV, numpy, multiple

# Inference
results = model(img)

# Results
results.print()  # or .show(), .save(), .crop(), .pandas(), etc.
# results.show()

PCB训练数据资源下载(可以直接训练,跳过第三步):

链接:https://pan.baidu.com/s/1t_94ONtT6jx6RdwEvn7PMg
提取码:zik0

代码与训练权重

链接:https://pan.baidu.com/s/1z_VTXwyxjnX-HwuvZWvQVQ
提取码:ngcc

参考资料:

YOLOV5官网:https://github.com/ultralytics/yolov5

YOLOV5猫狗识别:https://blog.csdn.net/oJiWuXuan/article/details/107558286

YOLOV5训练自己数据:https://blog.csdn.net/qq_36756866/article/details/109111065

猜你喜欢

转载自blog.csdn.net/weixin_45679938/article/details/118803745