基于Opencv+python的车流量检测项目

目录

项目介绍

整体流程

调试环境

项目流程

1.预处理

2.汽车识别——去背景算法(KNN/MOG2)

3.统计车流量数目

结尾

源代码

测试视频资料

流程图


项目介绍

本次项目主要采用了传统视觉的方法,对车道车流实现检测,能较为准确的识别出来车道上的车辆数目。由于传统视觉算法本身的局限性,因此也会有识别不准的地方。

整体流程

话不多说,先讲思路,直接上流程图

8dee5f37debe4e85ae1d9040dd51e48e.png

这里把所有预先设定的参数和变量统一称为了“宏”,然后对识别到的每一帧图像进行处理,最后得到理想的效果图。

效果图如下:

c03ec719b3954a3f9a97773acb5922e7.png

调试环境

  • Jupyter Notebook(Anaconda)
  • Python    3.9.12
  • OpenCv  4.5.5

项目流程

1.预处理

        #灰度
        cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)
        #高斯去噪
        blur=cv2.GaussianBlur(frame,(5,5),5)
        mask=removebg.apply(blur)
        
        #腐蚀
        erode=cv2.erode(mask,kernel,iterations=2))#iteration=n 迭代n次
        #膨胀
        dilate=cv2.dilate(erode,kernel,iterations=2
        #cv2.imshow("x",dilate)
        dst=cv2.morphologyEx(dilate,cv2.MORPH_CLOSE,kernel)

2.汽车识别——去背景算法(KNN/MOG2)

        先介绍KNN算法(因为本次采用的算法为KNN)

        KNN最邻近分类算法的实现原理:为了判断未知样本的类别,以所有已知类别的样本作为参照,计算未知样本与所有已知样本的距离,从中选取与未知样本距离最近的K个已知样本,根据少数服从多数的投票法则(majority-voting),将未知样本与K个最邻近样本中所属类别占比较多的归为一类。

  在Opencv中,KNN算法已经被封装好了,所以我们直接调用就可以。

#KNN算法去背景
removebg=cv2.createBackgroundSubtractorKNN()

        MOG2是一个以混合高斯模型为基础的前景/背景分割算法。使用 K(K=3 或 5)个高斯分布混合对背景像素进行建模。使用这些颜色(在整个视频中)存在时间的长短作为混合的权重。背景的颜色一般持续的时间最长,而且更加静止。这个函数有些可选参数,比如要进行建模场景的时间长度,高斯混合成分的数量,阈值等。将他们全部设置为默认值。然后在整个视频中我们是需要使用backgroundsubtractor.apply() 就可以得到前景的掩模了。移动的物体会被标记为白色,背景会被标记为黑色的。使用方法同上,在此不过多赘述。

3.统计车流量数目

本次统计采用的方法为:找到矩形框的中心点经,当该点经过提前所设定好的直线时,车辆数+1

计算中心点的函数:

def center(x,y,w,h):
    x1=int(w/2)
    y1=int(h/2)
    cx=x+x1
    cy=y+y1

统计车流量的代码部分:

 cpoint=center(x,y,w,h)
            cars.append(cpoint)#将中心点储存到cars数组中
            
            for (x,y) in cars:
                if(y>lineHeight-7 and y<lineHeight+7):
                    Car_nums +=1
                    cars.remove((x,y))
                    print(Car_nums)

最后在经过一些简单的处理,该项目就实现了。

结尾

附源代码:

import cv2
import numpy as np
lineHeight=550
#穿过直线的车的数量
Car_nums=0
#储存中心坐标的数组
cars=[]
#KNN算法去背景
removebg=cv2.createBackgroundSubtractorKNN()
def center(x,y,w,h):
    x1=int(w/2)
    y1=int(h/2)
    cx=x+x1
    cy=y+y1
    
    return cx,cy

video=cv2.VideoCapture('D://video.mp4')

kernel=cv2.getStructuringElement(cv2.MORPH_RECT,(5,5))

while True:
    ret,frame=video.read()
    if(ret!=0):
        #灰度
        cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)
        #高斯去噪
        blur=cv2.GaussianBlur(frame,(5,5),5)
        mask=removebg.apply(blur)
        
        #腐蚀
        erode=cv2.erode(mask,kernel,iterations=2))#iteration=n 迭代n次
        #膨胀
        dilate=cv2.dilate(erode,kernel,iterations=2
        #cv2.imshow("x",dilate)
        dst=cv2.morphologyEx(dilate,cv2.MORPH_CLOSE,kernel)
        #cv2.imshow("x1",dst)
                          
        #画出检测线
        cv2.line(frame,(10,lineHeight),(1400,lineHeight),(255,0,0),2)
        counts,h=cv2.findContours(dst,cv2.RETR_TREE,cv2.CHAIN_APPROX_SIMPLE)
        #遍历所有轮廓
        for(i,c) in enumerate(counts):
            (x,y,w,h)=cv2.boundingRect(c)
            
            if((w<=90) and (h<=90)):
                continue
            if(y<66):
                continue
            #将有效的车绘制出来
            cv2.rectangle(frame,(x,y),(x+w,y+h),(0,0,255),2)
            cpoint=center(x,y,w,h)
            cars.append(cpoint)#将中心点储存到cars数组中
            
            for (x,y) in cars:
                if(y>lineHeight-7 and y<lineHeight+7):
                    Car_nums +=1
                    cars.remove((x,y))
                    print(Car_nums)
        
        cv2.putText(frame,"Cars nums:"+str(Car_nums),(500,60),cv2.FONT_HERSHEY_DUPLEX,1,(255,0,0))
        cv2.imshow("video",frame)
        
    key=cv2.waitKey(1)
    if(key==27):
        break

video.release()
cv2.destroyAllWindows()        

附上测试视频资料:

链接:https://pan.baidu.com/s/1u_hjCtL3FR6FzeEVQar7wg?pwd=2Y1p 
提取码:2Y1p

较为形象的流程图:9c13a7945a6447f58a477ed753dd077d.png

猜你喜欢

转载自blog.csdn.net/Cv_Ys/article/details/127480649