转载自:https://zhuanlan.zhihu.com/p/90103849
所谓背景建模,就是将背景识别出来,与前景进行区分的过程。
由于场景中的目标在运动,目标的影像在不同帧中的位置不同,该类算法对图像上的连续两帧进行差分运算,不同帧对应的像素点相减,判断灰度差的绝对值,当绝对值超过一定阈值,即可判断运动目标,从而实现目标检测功能。
帧差法会引入噪声和空洞问题。
在进行前景检测前,先对背景进行训练,对图像中每个背景采用一个混合高斯模型进行模拟,每个背景的混合高斯的个数可以自适应。然后在测试阶段,对新来的像素进行GMM匹配,如果该像素值能够匹配其中一个高斯,则认为是背景,否则认为是前景。由于整个过程GMM模型在不断更新学习中,所以对动态背景有一定的鲁棒性。最后通过对一个有树枝摇摆的动态背景进行前景检测,取得了较好的效果。
混合高斯模型学习方法
1.首先初始化每个高斯模型矩阵参数。
2.取视频中T帧数据图像用来训练高斯混合模型。来了第一个像素之后用它来当做第一个高斯分布。
3.当后面来的像素值时,与前面已有的高斯的均值比较,如果该像素点的值与其模型均值差在3倍的方差内,则属于该分布,并对其进行参数更新。
4.如果下一次来的像素不满足当前高斯分布,用它来创建一个新的高斯分布。
混合高斯模型测试方法
在测试阶段,对新来像素点的值与混合高斯模型中的每一个均值进行比较,如果其差值在2倍的方差之间的话,则认为是背景,否则认为是前景。将前景赋值为255,背景赋值为0。这样就形成了一副前景二值图(如下图所示)。
代码:
1 import numpy as np 2 import cv2 3 4 # 经典的测试视频 5 cap = cv2.VideoCapture('test.avi') 6 7 kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE,(3,3)) 8 9 # 创建混合高斯模型 10 fgbg = cv2.createBackgroundSubtractorMOG2() 11 12 while(True): 13 # 从视频中读取数据 14 ret, frame = cap.read() 15 fgmask = fgbg.apply(frame) 16 17 # print(frame) 18 19 #形态学开运算去噪点(先腐蚀,再膨胀) 20 fgmask = cv2.morphologyEx(fgmask, cv2.MORPH_OPEN, kernel) 21 cv2.imshow('fgmask', fgmask) 22 #寻找视频中的轮廓 23 24 # im, contours, hierarchy = cv2.findContours(fgmask, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) 25 contours, hierarchy = cv2.findContours(fgmask, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE) 26 27 for c in contours: 28 #计算各轮廓的周长 29 perimeter = cv2.arcLength(c,True) 30 if perimeter > 188: 31 #找到一个直矩形(不会旋转) 32 x,y,w,h = cv2.boundingRect(c) 33 #画出这个矩形 34 cv2.rectangle(frame,(x,y),(x+w,y+h),(0,255,0),2) 35 36 cv2.imshow('frame',frame) 37 38 k = cv2.waitKey(150) & 0xff 39 if k == 27: 40 break 41 42 cap.release() 43 cv2.destroyAllWindows()