刚刚接触Python以及OpenCV,通过敲本书中的代码来学习计算机视觉。在按照书中代码进行实现时,发现有些部分总是没有作者实现的好(代码是完全一些样的)。经过反复琢磨对比试验后,明白了其中的原因:作者使用的摄像头与我的不同,所以拍出的图片或者视频的像素是不同的,因此代码中的某些尺寸或者其他参数都不能完全用作者给出的,需要根据实际情况调节。
本篇文章主要是记录我在《OpenCV 3计算机视觉:Python语言实现》第8章【目标跟踪】里实现“基本的运动检测”时发现并解决的问题:
书中源代码如下
import cv2 import numpy as np camera = cv2.VideoCapture(0) es = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (10,10)) kernel = np.ones((5,5),np.uint8) background = None while (True): ret, frame = camera.read() if background is None: background = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) background = cv2.GaussianBlur(background, (21, 21), 0) continue gray_frame = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) gray_frame = cv2.GaussianBlur(gray_frame, (21, 21), 0) diff = cv2.absdiff(background, gray_frame) diff = cv2.threshold(diff, 25, 255, cv2.THRESH_BINARY)[1] diff = cv2.dilate(diff, es, iterations = 2) image, cnts, hierarchy = cv2.findContours(diff.copy(), cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) for c in cnts: if cv2.contourArea(c) < 1500: continue (x, y, w, h) = cv2.boundingRect(c) cv2.rectangle(frame, (x, y), (x + w, y + h), (255, 255, 0), 2) cv2.imshow("contours", frame) cv2.imshow("dif", diff) #if cv2.waitKey(1000 / 12) & 0xff == ord("q"): if cv2.waitKey(90) & 0xff == ord("q"): break cv2.destroyAllWindows() camera.release()
完全按照书中的代码抄了一遍,运行程序,发现整个视频都是被检测为移动的目标,人的动作就没法被检测到。猜测是在camera = cv2.VideoCapture(0)
后立即读取frame并赋给background,此时摄像头刚刚打开,进入摄像头的光线应该还不是特别足,而后将采集到的图像与background进行比较,整幅frame应该都不一样(光线强弱影响太大),故一直是检测到正副frame都不同。
为了解决这一问题,在camera = cv2.VideoCapture(0)后,ret, frame = camera.read()之前加入等待时间time.sleep(5)。运行程序后,问题解决。