目标检测——FasterRCNN原理与实现

网络工作流程

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

数据加载

只要In[16]就可以送入网络了,剩下的只是方便展示观看
在这里插入图片描述
在这里插入图片描述

模型加载

在这里插入图片描述

模型预测过程

分为两部分:RPN生成候选区域和Fast RCNN进行目标的分类与回归

RPN获取候选区域

在这里插入图片描述
在这里插入图片描述

FastRCNN进行目标检测

将获取的候选区域送入到Fast RCNN网络中进行检测
在这里插入图片描述
res是一个字典,其中rois是目标框,class_ids是所属的类别,scores是置信度
在这里插入图片描述

模型结构详解

在这里插入图片描述
在这里插入图片描述

backbone

在这里插入图片描述
在这里插入图片描述
FPN就是特征融合,使用多个特征图而不是使用一个特征图
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

RPN网络

在这里插入图片描述

anchors

预设一组anchors(不同尺度,不同长宽比)
遍历特征图上的特征点,并映射回原图
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

RPN分类

在这里插入图片描述
在这里插入图片描述

RPN回归

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Proposal层

利用回归结果对anchor的坐标进行修正
在这里插入图片描述
在这里插入图片描述

ROIPooling

确定proposal要映射到哪个特征图上,获取对应的候选框
将候选框进行H*W的网格划分
在每一个网络中取最大值得到ROIPooling的结果
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

目标分类与回归

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

FasterRCNN的训练

在这里插入图片描述

RPN网络的训练

在这里插入图片描述

正负样本标记

在这里插入图片描述

RPN网络的损失函数

在这里插入图片描述

训练过程

在这里插入图片描述

实现

正负样本设置

在这里插入图片描述
在这里插入图片描述

损失函数

在这里插入图片描述

FastRCNN网络的训练

在这里插入图片描述

正负样本标记

在这里插入图片描述

FastRCNN网络的训练

在这里插入图片描述

训练过程

在这里插入图片描述

实现

正负样本设置

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

损失函数

在这里插入图片描述
在这里插入图片描述

共享卷积训练

在这里插入图片描述

端到端训练

在这里插入图片描述

数据加载

在这里插入图片描述
在这里插入图片描述

模型实例化

在这里插入图片描述

模型训练

#导入工具包
from detection.datasets import pascal_voc
from detection.model.detectors import faster_rcnn
import tensorflow as tf
import matplotlib.pyplot as plt
import numpy as np

#数据获取
train_dataset=pascal_voc.pascal_voc('train')
num_classes=len(train_dataset.classes)

#加载模型
model=faster_rcnn.FasterRCNN(num_classes=num_classes)

#优化器
optimizer=tf.keras.optimizers.SGD(1e-3,momentum=0.1,nesterov=True)

#损失函数变化列表
loss_his=[]

#使用tf.gradientTape进行训练
#epoch
for epoch in range(2):
    #获取索引
    indices=np.arange(train_dataset.num_gtlabels)
    np.random.shufflele(indices)
    #迭代次数
    iter=np.round(train_dataset.num_gtlabels/train_dataset.batch_size).astype(np.uint8)
    for idx in range(iter):
        #获取batch数据索引
        idx=indices[idx]
        #获取batch_size
        batch_image,batch_metas,batch_bboxes,batch_label=train_dataset[idx]
        #梯度下降
        with tf.GradientTape() as tape:
            #计算损失函数
            rpn_class_loss,rpn_bbox_loss,rcnn_class_loss,rcnn_bbox_loss=model((batch_image,batch_metas,batch_bboxes,batch_label),training=True)
            #总损失
            loss=rpn_class_loss+rpn_bbox_loss+rcnn_bbox_loss+rcnn_class_loss
            #计算梯度
            grads=tape.gradient(loss,model.trainable_variables)
            #更新参数值
            optimizer.apply_gradients(zip(grads,model.trainable_variables))
            print('epoch:%d,batch:%d,loss:%f'%(epoch+1,idx,loss))
            loss_his.append(loss)

猜你喜欢

转载自blog.csdn.net/qq_40527560/article/details/131729563