yolov3 训练过程

1.原汁原味的训练

2.修改 Darknet 和 损失函数的训练

3.可以试试 mobilenet 提高实时性。

4.

原汁原味的训练过程记录:

1.用kitti 数据集获得了 自己的 anchors 

2.

3.

扫描二维码关注公众号,回复: 12911145 查看本文章

还是用 初始的聚类




参考自 https://blog.csdn.net/syysyf99/article/details/93207020

1. 安装并测试

1.1 下载

git clone https://github.com/pjreddie/darknet.git

1.2 修改 Makefile

GPU=1       # 1.
CUDNN=1     # 2.
OPENCV=0    # 可选择修改,变1的话需要装opencv,麻烦
OPENMP=0
DEBUG=0

# 3  根据自己的计算能力,修改 在此添加了 61 那行
ARCH= -gencode arch=compute_30,code=sm_30 \
      -gencode arch=compute_35,code=sm_35 \
      -gencode arch=compute_50,code=[sm_50,compute_50] \
      -gencode arch=compute_52,code=[sm_52,compute_52] \
      -gencode arch=compute_61,code=[sm_61,compute_61]
#      -gencode arch=compute_20,code=[sm_20,sm_21] \ This one is deprecated?

# This is what I use, uncomment if you know your arch and want to specify
# ARCH= -gencode arch=compute_52,code=compute_52

VPATH=./src/:./examples
SLIB=libdarknet.so
ALIB=libdarknet.a
EXEC=darknet
OBJDIR=./obj/

CC=gcc
CPP=g++
NVCC=/usr/local/cuda/bin/nvcc  # 4.
AR=ar
ARFLAGS=rcs
OPTS=-Ofast
LDFLAGS= -lm -pthread 
COMMON= -Iinclude/ -Isrc/
CFLAGS=-Wall -Wno-unused-result -Wno-unknown-pragmas -Wfatal-errors -fPIC

ifeq ($(OPENMP), 1) 
CFLAGS+= -fopenmp
endif

ifeq ($(DEBUG), 1) 
OPTS=-O0 -g
endif

CFLAGS+=$(OPTS)

ifeq ($(OPENCV), 1) 
COMMON+= -DOPENCV
CFLAGS+= -DOPENCV
LDFLAGS+= `pkg-config --libs opencv` -lstdc++
COMMON+= `pkg-config --cflags opencv` 
endif

ifeq ($(GPU), 1) 
COMMON+= -DGPU -I/usr/local/cuda/include/        # 5 貌似并没变
CFLAGS+= -DGPU
LDFLAGS+= -L/usr/local/cuda/lib64 -lcuda -lcudart -lcublas -lcurand   6.貌似也没变
endif

ifeq ($(CUDNN), 1) 
COMMON+= -DCUDNN 
CFLAGS+= -DCUDNN
LDFLAGS+= -lcudnn
endif

OBJ=gemm.o utils.o cuda.o deconvolutional_layer.o convolutional_layer.o list.o image.o activations.o im2col.o col2im.o blas.o crop_layer.o dropout_layer.o maxpool_layer.o softmax_layer.o data.o matrix.o network.o connected_layer.o cost_layer.o parser.o option_list.o detection_layer.o route_layer.o upsample_layer.o box.o normalization_layer.o avgpool_layer.o layer.o local_layer.o shortcut_layer.o logistic_layer.o activation_layer.o rnn_layer.o gru_layer.o crnn_layer.o demo.o batchnorm_layer.o region_layer.o reorg_layer.o tree.o  lstm_layer.o l2norm_layer.o yolo_layer.o iseg_layer.o image_opencv.o
EXECOBJA=captcha.o lsd.o super.o art.o tag.o cifar.o go.o rnn.o segmenter.o regressor.o classifier.o coco.o yolo.o detector.o nightmare.o instance-segmenter.o darknet.o
ifeq ($(GPU), 1) 
LDFLAGS+= -lstdc++ 
OBJ+=convolutional_kernels.o deconvolutional_kernels.o activation_kernels.o im2col_kernels.o col2im_kernels.o blas_kernels.o crop_layer_kernels.o dropout_layer_kernels.o maxpool_layer_kernels.o avgpool_layer_kernels.o
endif

EXECOBJ = $(addprefix $(OBJDIR), $(EXECOBJA))
OBJS = $(addprefix $(OBJDIR), $(OBJ))
DEPS = $(wildcard src/*.h) Makefile include/darknet.h

all: obj backup results $(SLIB) $(ALIB) $(EXEC)
#all: obj  results $(SLIB) $(ALIB) $(EXEC)


$(EXEC): $(EXECOBJ) $(ALIB)
	$(CC) $(COMMON) $(CFLAGS) $^ -o $@ $(LDFLAGS) $(ALIB)

$(ALIB): $(OBJS)
	$(AR) $(ARFLAGS) $@ $^

$(SLIB): $(OBJS)
	$(CC) $(CFLAGS) -shared $^ -o $@ $(LDFLAGS)

$(OBJDIR)%.o: %.cpp $(DEPS)
	$(CPP) $(COMMON) $(CFLAGS) -c $< -o $@

$(OBJDIR)%.o: %.c $(DEPS)
	$(CC) $(COMMON) $(CFLAGS) -c $< -o $@

$(OBJDIR)%.o: %.cu $(DEPS)
	$(NVCC) $(ARCH) $(COMMON) --compiler-options "$(CFLAGS)" -c $< -o $@

obj:
	mkdir -p obj
backup:
	mkdir -p backup
results:
	mkdir -p results

.PHONY: clean

clean:
	rm -rf $(OBJS) $(SLIB) $(ALIB) $(EXEC) $(EXECOBJ) $(OBJDIR)/*

1.3 打开终端 

1. 重新编译的话先
make clean
再
make  # 第一次编译,直接 make 即可

1.4 查看是否成功

./darknet

出现

usage: ./darknet <function>

即成功。

1.5 下载yolov3.weights,链接: https://pan.baidu.com/s/1dEOqIoYW_AWeuRQpPxZzFQ 提取码: x72t

1.6 测试命令

./darknet detect cfg/yolov3.cfg yolov3.weights data/dog.jpg
./darknet detector test cfg/coco.data cfg/yolov3.cfg yolov3.weights data/dog.jpg
'''
1. 基于yolo.weights模型参数测试多张图片
不需要给定测试图片的路径,直接输入以下指令,然后程序会提示你输入测试图像路径,直到ctrl+c退出程序。
'''
./darknet detect cfg/yolo.cfg yolo.weights

'''
2.
基于yolo.weights模型参数,使用“-thresh"参数控制显示的bounding-box个数,darknet默认只显示被检测的物体中confidence大于或者等于0.25的bounding-box,可以通过参数-thresh<value>来改变,例如”-thresh 0"表示显示出所有的bounding-box。
'''

'''
3. 基于 yolo.weights 模型参数来测试摄像头
实时摄像头检测 / webcam检测,使用到cuda和opencv编译darknet。
'''
./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights

'''
4. 基于 yolo.weights 模型参数来测试video
video检测,使用opencv检测视频。
'''
./darknet detector demo cfg/coco.data cfg/yolov3.cfg yolov3.weights <video file>

2.训练过程详细记录

训练准备过程见另一篇博客。

训练代码:14,37,  8,77,  23,53,  18,136,  37,76,  60,108,  38,261,  93,173,  147,291

cd darknet
./darknet detector train wp_data/cfg/voc.data wp_data/cfg/yolov3-voc.cfg 2>&1 | tee wp_data/visualization/train_yolov3.log #保存训练日志
#上条代码解释:./darknet表示编译后的执行文件,detector train是指令,train表示是训练的过程。wp_data/cfg/voc.data表示的是wp_data/cfg路径下的文件voc.data。wp_data/cfg/yolov3-voc.cfg表示的是wp_data/cfg路径下的文件yolov3-voc.cfg。2>&1 | tee wp_data/visualization/train_yolov3.log表示保存日志,为了后续绘制loss曲线。若没有这条语句就不会保存日志。

./darknet detector train kitti_data/kitti.data cfg/yolov3-kitti.cfg darknet53.conv.74 2>&1 | tee log/train_yolov3.log

3. 根据anchor设置的不同,根据kitti数据集拟合的anchors,训练了8800 batch , 5000 7500 8800  0.001,0.0001,0.00001.  loss下降到了0.8 左右。

yolo 本来的 anchor 训练了2300 batch。 现在维持在1.5 左右的loss,lr=0.001. 还需要继续训练。

暂时。。。

猜你喜欢

转载自blog.csdn.net/qq_40297851/article/details/106966505