YOLOv5 を実行するには、まずディープ ラーニング環境をインストールする必要があります。チュートリアルについては、「pytorch ディープ ラーニング環境 (GPU バージョン) のインストール」を参照してください。
YOLOv5 のコードはオープン ソースのGitHub - Ultralytics/yolov5 on GitHubです。そのコードを使用して独自のターゲット検出ニーズを実現するには、3 つの手順が必要です: 1. データ セットを準備する; 2. コード パラメーターを構成してモデルをトレーニングする; 3. 予測する。次の著者は、独自のターゲット検出モデルのトレーニングを実現するための手順を段階的に説明します。
1. データセットを準備する
1.1 写真を集める
私たちは独自のニーズに応じて関連する写真を収集します。ここでは例としてマスク認識を取り上げます。以下に示すように、マスクありとマスクなしの写真をインターネットから収集しました。
1.2 ラベル付けソフトウェアを使用して、収集した写真にラベルを付ける
1.2.1 ラベル作成ソフトウェアのインストール
labelimg ソフトウェアは、3 つの形式にラベルを付けることができるオープンソースのデータラベル付けツールです。① VOCタグ形式のXMLファイル。②yoloラベル形式のtxtファイル。③MLタグ形式のjsonファイルを作成します。
labelimg のインストールは非常に簡単で、cmd を開いて次のコマンドを入力します。
pip install labelimg -i https://pypi.tuna.tsinghua.edu.cn/simple
1.2.2 ラベル作成ソフトウェアによるラベル付け
まず、VOC2007 という名前のフォルダーを作成し、その中に JPEGImages という名前のフォルダーを作成して、ラベルを付ける必要がある収集した画像を保存します。次に、Annotations という名前のフォルダーを作成して、ラベル付きのラベル ファイルを保存します。最後に、マークするクラス名を保存するための predefine_classes.txt という名前の txt ファイル。構造を次の図に示します。
ここで達成したいのは、マスクが着用されているかどうかを検出することなので、次の図に示すように、predefined_classes.txt ファイルには 2 つのカテゴリのみがあります。
次に、VOC2007 のディレクトリ (このディレクトリにある必要があります) で cmd を開き、次のコマンドを入力する必要があります。
labelimg JPEGImages predefined_classes.txt
このコマンドは、labelimg ソフトウェアを使用して、predefined_classes.txt ファイル内のカテゴリに従って JPEGImages フォルダー内の画像にラベルを付けることを意味します。
開いたインターフェイスを次の図に示します。
Open Dir は画像を保存するために選択するフォルダーであり、ここでのコマンドはデフォルトで JPEGImages フォルダーに設定します。
Change Save Dir はストレージ ラベルを変更するフォルダーです。ここではデフォルトで Annotations フォルダーを使用します。
PascalVOC はラベル形式を選択するもので、上で述べたように主に 3 つのタイプがあり、通常は PascalVOC の xml 形式を選択しますが、YOLO 形式でも問題なく、この 2 つは相互に変換できます。
RectBox の作成では、画像をマークするためのラベル付き十字位置ラインを生成します。
ターゲット検出位置を選択すると、下図に示すようにラベル選択ボックスが表示され、対応するラベルを選択できます。次に、すべての画像がマークされるまで、「次の画像」をクリックして次の画像をマークできます。
2 つのラベル形式を次の図に示します。
PascalVOC の XML 形式:
YOLO の txt 形式:
1.3 ラベル形式の変換と学習セットと検証セットの分割
1.3.1 xml形式のタグをtxt形式に変換し、学習セット(80%)と検証セット(20%)に分ける
import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
import random
from shutil import copyfile
classes = ["unmask", "mask"]
TRAIN_RATIO = 80 %训练集的比例
def clear_hidden_files(path):
dir_list = os.listdir(path)
for i in dir_list:
abspath = os.path.join(os.path.abspath(path), i)
if os.path.isfile(abspath):
if i.startswith("._"):
os.remove(abspath)
else:
clear_hidden_files(abspath)
def convert(size, box):
dw = 1. / size[0]
dh = 1. / size[1]
x = (box[0] + box[1]) / 2.0
y = (box[2] + box[3]) / 2.0
w = box[1] - box[0]
h = box[3] - box[2]
x = x * dw
w = w * dw
y = y * dh
h = h * dh
return (x, y, w, h)
def convert_annotation(image_id):
in_file = open('VOCdevkit/VOC2007/Annotations/%s.xml' % image_id)
out_file = open('VOCdevkit/VOC2007/YOLOLabels/%s.txt' % image_id, 'w')
tree = ET.parse(in_file)
root = tree.getroot()
size = root.find('size')
w = int(size.find('width').text)
h = int(size.find('height').text)
for obj in root.iter('object'):
difficult = obj.find('difficult').text
cls = obj.find('name').text
if cls not in classes or int(difficult) == 1:
continue
cls_id = classes.index(cls)
xmlbox = obj.find('bndbox')
b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),
float(xmlbox.find('ymax').text))
bb = convert((w, h), b)
out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
in_file.close()
out_file.close()
wd = os.getcwd()
wd = os.getcwd()
data_base_dir = os.path.join(wd, "VOCdevkit/")
if not os.path.isdir(data_base_dir):
os.mkdir(data_base_dir)
work_sapce_dir = os.path.join(data_base_dir, "VOC2007/")
if not os.path.isdir(work_sapce_dir):
os.mkdir(work_sapce_dir)
annotation_dir = os.path.join(work_sapce_dir, "Annotations/")
if not os.path.isdir(annotation_dir):
os.mkdir(annotation_dir)
clear_hidden_files(annotation_dir)
image_dir = os.path.join(work_sapce_dir, "JPEGImages/")
if not os.path.isdir(image_dir):
os.mkdir(image_dir)
clear_hidden_files(image_dir)
yolo_labels_dir = os.path.join(work_sapce_dir, "YOLOLabels/")
if not os.path.isdir(yolo_labels_dir):
os.mkdir(yolo_labels_dir)
clear_hidden_files(yolo_labels_dir)
yolov5_images_dir = os.path.join(data_base_dir, "images/")
if not os.path.isdir(yolov5_images_dir):
os.mkdir(yolov5_images_dir)
clear_hidden_files(yolov5_images_dir)
yolov5_labels_dir = os.path.join(data_base_dir, "labels/")
if not os.path.isdir(yolov5_labels_dir):
os.mkdir(yolov5_labels_dir)
clear_hidden_files(yolov5_labels_dir)
yolov5_images_train_dir = os.path.join(yolov5_images_dir, "train/")
if not os.path.isdir(yolov5_images_train_dir):
os.mkdir(yolov5_images_train_dir)
clear_hidden_files(yolov5_images_train_dir)
yolov5_images_test_dir = os.path.join(yolov5_images_dir, "val/")
if not os.path.isdir(yolov5_images_test_dir):
os.mkdir(yolov5_images_test_dir)
clear_hidden_files(yolov5_images_test_dir)
yolov5_labels_train_dir = os.path.join(yolov5_labels_dir, "train/")
if not os.path.isdir(yolov5_labels_train_dir):
os.mkdir(yolov5_labels_train_dir)
clear_hidden_files(yolov5_labels_train_dir)
yolov5_labels_test_dir = os.path.join(yolov5_labels_dir, "val/")
if not os.path.isdir(yolov5_labels_test_dir):
os.mkdir(yolov5_labels_test_dir)
clear_hidden_files(yolov5_labels_test_dir)
train_file = open(os.path.join(wd, "yolov5_train.txt"), 'w')
test_file = open(os.path.join(wd, "yolov5_val.txt"), 'w')
train_file.close()
test_file.close()
train_file = open(os.path.join(wd, "yolov5_train.txt"), 'a')
test_file = open(os.path.join(wd, "yolov5_val.txt"), 'a')
list_imgs = os.listdir(image_dir) # list image files
prob = random.randint(1, 100)
print("Probability: %d" % prob)
for i in range(0, len(list_imgs)):
path = os.path.join(image_dir, list_imgs[i])
if os.path.isfile(path):
image_path = image_dir + list_imgs[i]
voc_path = list_imgs[i]
(nameWithoutExtention, extention) = os.path.splitext(os.path.basename(image_path))
(voc_nameWithoutExtention, voc_extention) = os.path.splitext(os.path.basename(voc_path))
annotation_name = nameWithoutExtention + '.xml'
annotation_path = os.path.join(annotation_dir, annotation_name)
label_name = nameWithoutExtention + '.txt'
label_path = os.path.join(yolo_labels_dir, label_name)
prob = random.randint(1, 100)
print("Probability: %d" % prob)
if (prob < TRAIN_RATIO): # train dataset
if os.path.exists(annotation_path):
train_file.write(image_path + '\n')
convert_annotation(nameWithoutExtention) # convert label
copyfile(image_path, yolov5_images_train_dir + voc_path)
copyfile(label_path, yolov5_labels_train_dir + label_name)
else: # test dataset
if os.path.exists(annotation_path):
test_file.write(image_path + '\n')
convert_annotation(nameWithoutExtention) # convert label
copyfile(image_path, yolov5_images_test_dir + voc_path)
copyfile(label_path, yolov5_labels_test_dir + label_name)
train_file.close()
test_file.close()
1.3.2 txtタグ形式をxml形式に変換し、1.3.1の方法でデータセットを分割する
from xml.dom.minidom import Document
import os
import cv2
# def makexml(txtPath, xmlPath, picPath): # txt所在文件夹路径,xml文件保存路径,图片所在文件夹路径
def makexml(picPath, txtPath, xmlPath): # txt所在文件夹路径,xml文件保存路径,图片所在文件夹路径
"""此函数用于将yolo格式txt标注文件转换为voc格式xml标注文件
在自己的标注图片文件夹下建三个子文件夹,分别命名为picture、txt、xml
"""
dic = {'0': "unmask", # 创建字典用来对类型进行转换
'1': "mask", # 此处的字典要与自己的classes.txt文件中的类对应,且顺序要一致
}
files = os.listdir(txtPath)
for i, name in enumerate(files):
xmlBuilder = Document()
annotation = xmlBuilder.createElement("annotation") # 创建annotation标签
xmlBuilder.appendChild(annotation)
txtFile = open(txtPath + name)
txtList = txtFile.readlines()
img = cv2.imread(picPath + name[0:-4] + ".jpg")
Pheight, Pwidth, Pdepth = img.shape
folder = xmlBuilder.createElement("folder") # folder标签
foldercontent = xmlBuilder.createTextNode("driving_annotation_dataset")
folder.appendChild(foldercontent)
annotation.appendChild(folder) # folder标签结束
filename = xmlBuilder.createElement("filename") # filename标签
filenamecontent = xmlBuilder.createTextNode(name[0:-4] + ".jpg")
filename.appendChild(filenamecontent)
annotation.appendChild(filename) # filename标签结束
size = xmlBuilder.createElement("size") # size标签
width = xmlBuilder.createElement("width") # size子标签width
widthcontent = xmlBuilder.createTextNode(str(Pwidth))
width.appendChild(widthcontent)
size.appendChild(width) # size子标签width结束
height = xmlBuilder.createElement("height") # size子标签height
heightcontent = xmlBuilder.createTextNode(str(Pheight))
height.appendChild(heightcontent)
size.appendChild(height) # size子标签height结束
depth = xmlBuilder.createElement("depth") # size子标签depth
depthcontent = xmlBuilder.createTextNode(str(Pdepth))
depth.appendChild(depthcontent)
size.appendChild(depth) # size子标签depth结束
annotation.appendChild(size) # size标签结束
for j in txtList:
oneline = j.strip().split(" ")
object = xmlBuilder.createElement("object") # object 标签
picname = xmlBuilder.createElement("name") # name标签
namecontent = xmlBuilder.createTextNode(dic[oneline[0]])
picname.appendChild(namecontent)
object.appendChild(picname) # name标签结束
pose = xmlBuilder.createElement("pose") # pose标签
posecontent = xmlBuilder.createTextNode("Unspecified")
pose.appendChild(posecontent)
object.appendChild(pose) # pose标签结束
truncated = xmlBuilder.createElement("truncated") # truncated标签
truncatedContent = xmlBuilder.createTextNode("0")
truncated.appendChild(truncatedContent)
object.appendChild(truncated) # truncated标签结束
difficult = xmlBuilder.createElement("difficult") # difficult标签
difficultcontent = xmlBuilder.createTextNode("0")
difficult.appendChild(difficultcontent)
object.appendChild(difficult) # difficult标签结束
bndbox = xmlBuilder.createElement("bndbox") # bndbox标签
xmin = xmlBuilder.createElement("xmin") # xmin标签
mathData = int(((float(oneline[1])) * Pwidth + 1) - (float(oneline[3])) * 0.5 * Pwidth)
xminContent = xmlBuilder.createTextNode(str(mathData))
xmin.appendChild(xminContent)
bndbox.appendChild(xmin) # xmin标签结束
ymin = xmlBuilder.createElement("ymin") # ymin标签
mathData = int(((float(oneline[2])) * Pheight + 1) - (float(oneline[4])) * 0.5 * Pheight)
yminContent = xmlBuilder.createTextNode(str(mathData))
ymin.appendChild(yminContent)
bndbox.appendChild(ymin) # ymin标签结束
xmax = xmlBuilder.createElement("xmax") # xmax标签
mathData = int(((float(oneline[1])) * Pwidth + 1) + (float(oneline[3])) * 0.5 * Pwidth)
xmaxContent = xmlBuilder.createTextNode(str(mathData))
xmax.appendChild(xmaxContent)
bndbox.appendChild(xmax) # xmax标签结束
ymax = xmlBuilder.createElement("ymax") # ymax标签
mathData = int(((float(oneline[2])) * Pheight + 1) + (float(oneline[4])) * 0.5 * Pheight)
ymaxContent = xmlBuilder.createTextNode(str(mathData))
ymax.appendChild(ymaxContent)
bndbox.appendChild(ymax) # ymax标签结束
object.appendChild(bndbox) # bndbox标签结束
annotation.appendChild(object) # object标签结束
f = open(xmlPath + name[0:-4] + ".xml", 'w')
xmlBuilder.writexml(f, indent='\t', newl='\n', addindent='\t', encoding='utf-8')
f.close()
if __name__ == "__main__":
picPath = "VOCdevkit/VOC2007/JPEGImages/" # 图片所在文件夹路径,后面的/一定要带上
txtPath = "VOCdevkit/VOC2007/YOLO/" # txt所在文件夹路径,后面的/一定要带上
xmlPath = "VOCdevkit/VOC2007/Annotations/" # xml文件保存路径,后面的/一定要带上
makexml(picPath, txtPath, xmlPath)
ラベルが txt 形式の場合、変換プロセス中にいくつかの問題に注意する必要があります。
1. コードの最後の数行によると、txt メモは YOLO フォルダーに保存される必要があります。
2. XML 形式に変換されたタグは、Annotations フォルダーに保存されます。
3. .shapeに誤りがある場合は、YOLOフォルダ内にclass.txtファイルがあるか確認し、削除してください。
これで、データセットの準備部分は完了です。
2. コードパラメータを設定し、モデルをトレーニングする
2.1 ソースコードのダウンロード
YOLOv5 のコードはオープンソースのGitHub - Ultralytics/yolov5 on GitHub であり、Web サイトからソース コードをダウンロードできます。以下の図に示すように、ここでは v6.0 バージョンを選択しました。
ダウンロードした yolov5 コードを解凍し、pycharm で開くと、コード ディレクトリ全体は次のようになります。
2.2 データセットに参加する
用意したデータセットをプロジェクトディレクトリ配下のVOCdevkitフォルダに置き、1.3で導入したラベル変換とデータセット分割方法を利用して、次の図のようにデータセットを分割します。
2.3 コードパラメータの設定
1. pycharm の右下隅で設定済みの pytorch 環境を選択します。環境がインストールされていない場合は、前の記事を参照してください。
2. yolov5 に必要な依存ライブラリをインストールします。図に示すように、pycharm のコマンド ターミナルを開き、次のコマンドを入力します。
pip install -r requirements.txt
3. プリウェイト ファイルをダウンロードします。Web サイトの事前加重ダウンロード。ここではyolov5s.pt を使用し、ダウンロードしてプロジェクト ディレクトリに配置します。
4. データ構成ファイルを変更します。
① このディレクトリのデータフォルダ配下の VOC.yaml ファイルをコピーし、mask.yaml という名前を付け、下図を参考に修正します。
②このディレクトリのmodelフォルダ配下にあるyolov5s.yamlファイルのコピーをコピーし、yolov5s_mask.yamlという名前を付けて、下図を参考に修正します。
5.trainファイルのパラメータ設定
以下の図に示すように、436 行目はプリウェイト ファイルを設定し、437 行目と 438 行目はデータ設定ファイルを設定し、440 行目は反復回数を設定します (これは、必要に応じて自分で設定できます)。ニーズ)。
上記のパラメーターを構成した後、トレーニングのために train.py ファイルを実行できます。ただし、次の問題が発生する可能性があります。
質問 1:
これは、仮想メモリが十分ではないことを意味します。utils パスにある datasets.py ファイルを変更することで、117 行目の num_workers パラメータ nw を 0 に変更できます。
質問 2:
これは、GPU メモリのオーバーフローを示します。バッチサイズとワーカーパラメータのサイズを減らすことで解決できます。
上記のパラメータ設定が完了したら、独自のデータをトレーニングできます。train.py ファイルを実行すると、下の図に示すように [実行] 列にトレーニングが開始されたことが示されます。
3. 予測
トレーニングが完了すると、次の図に示すように、プロジェクトに runs/train/exp フォルダーが作成されます。このフォルダーには、トレーニングされた重みデータとその他のパラメーター ファイルが含まれています。
次に、detect.py ファイルを開いて、次のパラメータを変更します。行 269 はトレーニングされた重みファイルを設定することであり、行 270 は検出またはカメラを呼び出したい画像フォルダーまたは特定の画像を設定することです。0 はカメラを呼び出すことを意味します。
設定が完了したら、detect.py ファイルを実行するだけで、runs\detect\exp フォルダーに検出結果が保存されます。
テスト結果は次のとおりです。
このようにして、独自のターゲット検出データセットをトレーニングする YOLOv5 に基づく実験プロジェクトが完了しました。テスト結果に驚きましたか?また、プロセスが煩雑でわかりにくいと感じるかもしれません。練習すれば完璧になります。さらに練習すれば、すぐに要点を把握できるようになります。わかりました。皆さん、ありがとうございます。他に問題が発生した場合は、連絡してください。