使用SSD网络模型进行Tensorflow物体检测(V1.2视频检测)

使用SSD网络模型进行Tensorflow物体检测?(V1.2视频检测)

1.模型的加载和utils库环境的配置?

​ 1.准备好ssd_mobilenet_v1网络模型的frozen_inference_graph.pb和mscoco_label_map.pbtxt文件。(文中所涉及文件和代码均已上传,链接提取码:mztu)

​ 2.配置好utils库文件以及pycache环境,将准备好的label_map_util.py和visualization_utils.py文件以及对应的label_map_util.cpython-36.pyc和visualization_utils.cpython-36.pyc复制粘贴到运行环境目录下。详细图示参考上一篇博客:使用SSD网络模型进行Tensorflow物体检测?v1.1

2.模型的导入和使用?

​ 该部分内容代码的结构可参考上一篇博客内容:使用SSD网络模型进行Tensorflow物体检测?v1.1。需要修改的地方在对视频的读取和写入的代码实现部分。

如何对视频进行帧的切分以及将完成检测后的帧写入新的视频中?

​ 1.对视频读取帧,同时新生成一个原来的视频。思路:原来的视频负责读取每一帧内容进行检测,而将检测标记后的帧图片写入新生成的视频中。

cap = cv2.VideoCapture('绝地逃亡.mov')#原视频路径
ret, image_np = cap.read()#image_np,读取视频的帧信息
out = cv2.VideoWriter('output.mov', -1, cap.get(cv2.CAP_PROP_FPS), (image_np.shape[1], image_np.shape[0]))#Writer(新生成视频的路径+时长(-1:不确定)+帧数+(帧的宽,高))

​ 2.修改session()的循环条件,并将检测标记后的帧写入输出的视频。

  	......(取出模型的网络层代码不变)
    while cap.isOpened():#循环条件为原来的视频是否处于打开的状态
            ret, image_np = cap.read()
            if len((np.array(image_np)).shape) == 0:
                break
         .........(中间喂数据的代码不变)
		out.write(cv2.cvtColor(image_np, cv2.COLOR_RGB2BGR))#写入out,out为新生成的输出视频

​ 3.在结束模型的测试后,关闭视频和窗口。

cap.release()#释放打开的视频
out.release()#释放输出的视频
cv2.destroyAllWindows()

3.–( ̄▽ ̄)*GIf动态效果展示
在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/acceptedday/article/details/104513924