Opencv学习之二帧差法运动目标检测与轮廓提取 ,供大家参考,具体内容如下

代码是从网上摘抄学习的,加了好多注释,感觉就像边看书边做笔记一样,给人以满足的享受。Let's do this!

#include "highgui.h"
#include "cv.h"
#include "stdio.h"
#include <time.h>
#include <math.h>
#include <string.h>

const double MHI_DURATION=0.1;//运动跟踪的最大持续时间0.1s
const double MAX_TIME_DELTA=0.5//最大时间增量0.5s
const double MIN_TIME_DELTA=0.05;//最小时间增量0.05s
const int N=3;
const int CONTOUR_MAX_AERA=16;

/*做帧差时要用到的图像缓冲*/
IplImage **buf=0;
int last=0;
/*临时图像*/
IplImage* mhi=0;//运动历史图像mhi

CvConnectedComp* cur_comp,mincomp;
/*typedef struct CvConnectedComp 
 {
 double area; //区域的面积
 CvScalar value; //区域颜色的平均值
 CvRect rect; //是一个区域的外接矩形
 CvSeq * contour; //指向另一个序列的指针
 };*/
/*定义一个内存存储器*/
CvMemStorage* storage;
/*二维坐标系下的点,类型为整型,通常以0点为原点,有x、y坐标*/
CvPoint pt[4];

/*当前画面索引*/
int nCurFrameIndex=0;

/*定义用来更新运动历史图像的函数*/
/*img-输入视频帧;dst-检测结果*/
void update(IplImage *img,IplImage *dst,int diff_threshold)
{
 /*获得当前时间,单位是秒*/
 double timestamp=clock()/100;
 /*获得输入视频帧的尺寸,用存到size中*/
 CvSize size=cvSize(img->width,img->height);
 /*做帧差要用到的中间变量*/
 int i,idx1,idx2;
 /*当前帧与上一帧做帧差之后,得到的图像数据存储在nimg中*/
 IplImage* nimg;
 /*这步暂时没看懂- -!*/
 IplImage* pyr=cvCreateImage(cvSize((size.width&-2)/2,(size.height&-2)/2),8,1);
 /*定义一个内存存储器*/
 CvMemStorage* stor;
 /*创建一个可增长的序列seq*/
 CvSeq* seq;

 /*先进行数据的初始化*/
 /*如果历史图像为空,或者历史图像尺寸与输入的当前帧尺寸不吻合(这意味着打开了新的视频?)*/
 if(!mhi||mhi->width!=size.width||mhi->height!=size.height)
 {
 /*如果buf还未初始化,则为buf分配内存*/
 if(buf==0)
 {
  /*N=3*/
  buf=(IplImage**)malloc(N*sizeof(buf[0]));
  /*将指针s所指向的某一块内存中的每个字节的内容全部设置为ch指定的ASCII值,块的大小由第三个参数指定:memset(void *s,char ch,unsigned n)。此处作用相当于将buf内的元素全部置零*/
  memset(buf,0,N*sizeof(buf[0]));
 }
 /*若buf已经初始化了,也将buf置零*/
 for(i=0;i<N;i++)
 {
  cvReleaseImage(&buf[i]);
  buf[i]=cvCreateImage(size,IPL_DEPTH_8U,1);
  cvZero(buf[i]);
 }
 /*重新初始化运动历史图像mhi*/
 cvReleaseImage(&mhi);
 mhi=cvCreateImage(size,IPL_DEPTH_32F,1);
 cvZero(mhi);
 }

 /*将当前要处理的帧转化为灰度图,放到buf的最后一帧*/
 cvCvtColor(img,buf[last],CV_BGR2GRAY);
 /*这三部是为了做帧差,让buf[idx1]永远保存的是上一帧,buf[idx2]保存当前帧*/
 idx1=last;
 idx2=(last+1)%N;
 last=idx2;
 /*做帧差,函数 cvAbsDiff 计算两个数组差的绝对值*/
 nimg=buf[idx2];
 cvAbsDiff(buf[idx1],buf[idx2],nimg);
 /*帧差之后,将得到的图像二值化*/
 cvThreshold(nimg,nimg,50,255,CV_THRESH_BINARY);
 /*去掉超时的影像以更新运动历史图像*/
 cvUpdateMotionHistory(nimg,mhi,timestamp,MHI_DURATION);
 cvConvert(mhi,dst);
 /*中值滤波,消除小的噪声
 函数cvPyrDown使用Gaussian金字塔分解对输入图像向下采样,去除噪声,图像是原图像的四分之一
 函数cvDialate做膨胀操作,去除目标的不连续空洞
 函数cvPyrUp使用Gaussian金字塔分解对输入图像向上采样,恢复图像,图象是原图像的四倍*/
 cvSmooth(dst,dst,CV_MEDIAN,3,0,0,0);
 cvPyrDown(dst,pyr,CV_GAUSSIAN_5x5);
 cvDilate(pyr,pyr,0,1);
 cvPyrUp(pyr,dst,CV_GAUSSIAN_5x5);

 /*创建轮廓*/
 stor=cvCreateMemStorage(0);
 seq=cvCreateSeq(CV_SEQ_ELTYPE_POINT,//从预定义的序列类型中选择一合适的类型
 sizeof(CvSeq),//此参数表示序列头部的大小;必须大于或等于sizeof(CvSeq)
 /*第三个参数是元素的大小,以字节计。这个大小必须与序列类型(由seq_flags指定)相一致,例如,对于一个点的序列,元素类型 CV_SEQ_ELTYPE_POINT应当被指定,参数elem_size必须等同于sizeof(CvPoint)。
*/
 sizeof(CvPoint),
 stor);//指向前面定义的内存存储器的指针

 /*找到所有轮廓*/
 cvFindContours(dst,//源二值图像
 stor,//返回轮廓的容器
 &seq,//输出参数,第一个外接轮廓的地址。
 sizeof(CvContour),
 CV_RETR_EXTERNAL,//mode:EXTERNAL——只查找最外的轮廓
 CV_CHAIN_APPROX_NONE,//轮廓近似的方法,具体见百度百科- -
 cvPoint(0,0));

 /*直接用CONTOUR中的矩形来画轮廓*/
 /*遍历seq序列*/
 for(;seq;seq=seq->h_next)
 {
 /*直接使用轮廓的矩形,调取rect会得到与x、y轴平行的矩形,并非最小矩形*/
 CvRect r=((CvContour*)cont)->rect;//将序列类型转换成轮廓类型的指针?
 /*矩形的面积小于轮廓面积的话,舍弃;矩形面积也不能过小*/
 if((r.height*r.width>CONTOUR_MAX_AERA)&&(r.height*r.width>2560))
 {
  /*cvRectangle函数通过对角线两个顶点,绘制矩形*/
  cvRectangle(img,//图像
  cvPoint(r.x,r.y),//一个顶点
  cvPoint(r.x + r.width, r.y + r.height),//另一个顶点
  CV_RGB(255,0,0),//线条颜色
  1,//线条粗细程度
  CV_AA,//线条类型
  0); //坐标点的小数点位数
 }
 }

 /*函数调用完毕,释放内存*/
 cvReleaseMemStorage(&stor);
 cvReleaseImage(&pyr);
}

/处理视频,主函数/
int main(int argc,char**argv)
{
 IplImage *motion=0;
 CvCapture *capture=0;
 /*读取视频帧*/
 capture=cvCaptureFromFile("D:\视频\01.mp4");
 if(capture)
 {
 cvNamedWindow("Motion",1);
 for(;;)
 {
  IplImage *image;
  /*使用cvGrabFrame函数抓取帧*/
  if(!cvGrabFrame(capture))
  break;
  /*使用cvRetrieveFrame函数取回被cvGrabFrame抓取的帧*/
  image=cvRetrieveFrame(capture);
  if(image)
  {
  /*如果motion并未初始化,说明这是第一帧。我们将motion初始化*/
  if(!motion)
  {
   motion=cvCreateImage(cvSize(image->width,image->height),8,1);
   cvZero(motion);
   /*需要保证内存存储的顺序和取出的帧相同*/
   motion->origin=image->origin;
  }
  }
  /*若取出了新的一帧,而且motion不为空,则更新画面*/
  update(image,motion,10);
  /*显示处理过的图像*/
  cvShowImage("Motion",image);

  /*10ms内检测到用户按了任意键,均退出*/
  if(cvWaitKey(10)>=0)
  break;
 }
 /*当上面这个for循环执行结束时,说明视频已经处理完成或者用户停止处理视频了*/
 cvReleaseCapture(&capture);
 cvDestroyWindow("Motion");
 }
 return 0;
}

经过测试,这个程序能够成功检测并用红色方框圈出移动的车辆和行人。

待改进的地方有:

①视频处理速度慢,导致视频处理速度只有视频正常播放速度的二分之一。

②对于行人的检测,画出的红色方框不稳定,不是将整个行人框出,经常会分别框出一个人的几个不同部位orz。

③当两个物体稍有重叠时,会将重叠物体当作一个物体圈出。

以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持悠悠之家。

点赞(65)

评论列表共有 0 条评论

立即
投稿
返回
顶部