0.以前のyolov3トレーニングで言及されていることがいくつかあり、テキストに記載されています。
1.コードをダウンロードします。
https://github.com/ultralytics/yolov5
2.データセットを準備します。
データ形式はyolov3とまったく同じです。yolov3のデータセットを作成した場合は、直接使用できます。詳細については、https://blog.csdn.net/gbz3300255/article/details/106276897の セクション3 -------------独自のデータセットをトレーニングする手順を参照してください。
準備するテキストファイルは次の とおりです。train.txttest.txtval.txtlablesテキストファイル
train.txtで、データセットの下に画像の名前を記録します。これと同様に、データセットの画像は/ data / images /ディレクトリに保存されます。
BloodImage_00091.jpg
BloodImage_00156.jpg
BloodImage_00389.jpg
BloodImage_00030.jpg
BloodImage_00124.jpg
BloodImage_00278.jpg
BloodImage_00261.jpg
test.txt、表面フォーマットと同じ、内容はテストされるグラフのファイル名です
BloodImage_00258.jpg
BloodImage_00320.jpg
BloodImage_00120.jpg
val.txt、顔の形式と同じ、コンテンツは検証セット内の画像のファイル名です
BloodImage_00777.jpg
BloodImage_00951.jpg
ラベルタイプのテキスト。画像内の各画像は、次の形式のラベルに関するテキストに対応し、名前はBloodImage_00091.txtに似ています。
0 0.669 0.5785714285714286 0.032 0.08285714285714285
ラベルのテキストは、上記のコードの/ data / lables /に統合されています
3.構成ファイルを変更します。
3.1データフォルダーに新しいymlファイルを作成し、trafficsigns.yamlと呼びます。内容は以下の通りです。trainのパスは、手順2のtrain.txtのテキストが書き込まれるパスであり、最後の2つは類似しています。ncはカテゴリの数です。私は4つのカテゴリのみをテストし、4つを記述します。名前をカテゴリに変更するだけですが、怠惰な人はそれを変更しませんでした。
# COCO 2017 dataset http://cocodataset.org
# Train command: python train.py --data coco.yaml
# Default dataset location is next to /yolov5:
# /parent_folder
# /coco
# /yolov5
# download command/URL (optional)
download: bash data/scripts/get_coco.sh
# train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
train: ../ImageSets/train.txt
val: ../ImageSets/val.txt
test: ../ImageSets/test.txt
# number of classes
nc: 4
# class names
names: ['0', '1', '2', '3']
# Print classes
# with open('data/coco.yaml') as f:
# d = yaml.load(f, Loader=yaml.FullLoader) # dict
# for i, x in enumerate(d['names']):
# print(i, x)
3.2モデルのネットワーク構成ファイルを変更します。たとえば、yolov5Iモデルを使用する場合は、yolov5l.yamlを必要なものに変更します。注意を払うべきいくつかの場所があります:
a.ncをカテゴリ番号に変更する必要があります
b。アンカーのサイズは、独自のデータセットのサイズに変更する必要があります。詳細については、 https://blog.csdn.net/gbz3300255/article/details/106276897を 参照して、アンカーの特定の方法を変更してください。コードは準備ができており、クラスタリングされています。
# parameters
nc: 4 # number of classes
depth_multiple: 1.0 # model depth multiple
width_multiple: 1.0 # layer channel multiple
# anchors
anchors:
- [12,15, 14,20, 18,25] # P3/8
- [24,32, 24,18, 33,44] # P4/16
- [39,28, 59,49, 115,72] # P5/32
# YOLOv5 backbone
backbone:
# [from, number, module, args]
[[-1, 1, Focus, [64, 3]], # 0-P1/2
[-1, 1, Conv, [128, 3, 2]], # 1-P2/4
[-1, 3, BottleneckCSP, [128]],
[-1, 1, Conv, [256, 3, 2]], # 3-P3/8
[-1, 9, BottleneckCSP, [256]],
[-1, 1, Conv, [512, 3, 2]], # 5-P4/16
[-1, 9, BottleneckCSP, [512]],
[-1, 1, Conv, [1024, 3, 2]], # 7-P5/32
[-1, 1, SPP, [1024, [5, 9, 13]]],
[-1, 3, BottleneckCSP, [1024, False]], # 9
]
# YOLOv5 head
head:
[[-1, 1, Conv, [512, 1, 1]],
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 6], 1, Concat, [1]], # cat backbone P4
[-1, 3, BottleneckCSP, [512, False]], # 13
[-1, 1, Conv, [256, 1, 1]],
[-1, 1, nn.Upsample, [None, 2, 'nearest']],
[[-1, 4], 1, Concat, [1]], # cat backbone P3
[-1, 3, BottleneckCSP, [256, False]], # 17 (P3/8-small)
[-1, 1, Conv, [256, 3, 2]],
[[-1, 14], 1, Concat, [1]], # cat head P4
[-1, 3, BottleneckCSP, [512, False]], # 20 (P4/16-medium)
[-1, 1, Conv, [512, 3, 2]],
[[-1, 10], 1, Concat, [1]], # cat head P5
[-1, 3, BottleneckCSP, [1024, False]], # 23 (P5/32-large)
[[17, 20, 23], 1, Detect, [nc, anchors]], # Detect(P3, P4, P5)
]
4.トレーニング:
python train.py --data data/trafficsigns.yaml --cfg models/yolov5I.yaml --weights '' --batch-size 16 --epochs 100
5.テスト:
python detect.py --weights best.pt --img 320 --conf 0.4
トーチバージョンが低すぎてcudaのアンプモジュールを使用できないため、まだトレーニングを行っていません。時間があるときにもう一度やりましょう。これで道は終わりです。