概述
目标跟踪作为Machine Learning的一个重要分支,加之其广泛的应用(行人、军事中飞机导弹等),对其的研究
受到国内外学者的喜爱。
总的来说整个目标跟踪过程可分为目标特征提取和目标跟踪两部分。
其中目标特征提取又可以细分为以下几种:
1. 各种色彩空间直方图,利用色彩空间的直方图分布作为目标跟踪的特征的一个显著性特点是可以减少物体远
近距离对跟踪的影响,因为其颜色分布大致相同。
2.轮廓特征,提取目标的轮廓特征不但可以加快算法的速度还可以在目标有小部分影响的情况下同样有效果。
3. 纹理特征,如果被跟踪目标是有纹理的,根据其纹理特征来跟踪,效果会有所改善。
当前目标跟踪算法大体可分为以下七种
1.质心跟踪算法(Centroid):这种跟踪方式用于跟踪有界目标如飞机,目标完全包含在摄像机的视场范围内,
对于这种跟踪方式可选用一些预处理算法:如白热(正对比度)增强、黑热(负对比度)增强,和基于直方图的统计
(双极性)增强。
2.多目标跟踪算法(MTT):多目标跟踪用于有界目标如飞机、地面汽车等。它们完全在跟踪窗口内。在复杂环境里
的小目标跟踪MMT能给出一个较好的性能
3.相关跟踪算法(Correlation):相关可用来跟踪多种类型的目标,当跟踪目标无边界且动态不是很强时这种方式
非常有效。典型应用于:目标在近距离的范围,且目标扩展到摄像机视场范围外,如一艘船。
4.边缘跟踪算法(Edge):当跟踪目标有一个或多个确定的边缘而同时却又具有不确定的边缘,这时边缘跟踪是最有
效的算法。典型地火箭发射,它有确定好的前边缘,但尾边缘由于喷气而不定
5.相位相关跟踪算法(Phase Correlation):相位相关算法是非常通用的算法,既可以用来跟踪无界目标也可以用
来跟踪有界目标。在复杂环境下(如地面的汽车)能给出一个好的效果。
6.场景锁定算法(SceneLock):该算法专门用于复杂场景的跟踪。适合于空对地和地对地场景。这个算法跟踪场景
中的多个目标,然后依据每个点的运动,从而估计整个场景全局运动,场景中的目标和定位是自动选择的。当存在跟踪点
移动到摄像机视场外时,新的跟踪点能自动被标识。瞄准点初始化到场景中的某个点,跟踪启动,同时定位瞄准线。在这
种模式下,能连续跟踪和报告场景里的目标的位置
7.组合(Combined)跟踪算法:顾名思义这种跟踪方式是两种具有互补特性的跟踪算法的组合:相关类算法 +质
心类算法。它适合于目标尺寸、表面、特征改变很大的场景(如小船在波涛汹涌的大海里行驶)。
基于质心的跟踪算法大家可以参考《具有记忆跟踪功能的质心跟踪算法》刘士建,吴滢跃 这篇文章.从这篇文章中我们
可以看出本算法实现的基本思路是通过对目标的位置、面积、灰度和形状等信息来判断目标是否被遮挡,如被遮挡则对目
标的位置进行预测,直至目标重新出现。这种实现不仅使算法具有记忆跟踪的功,还使改进算法基本不受目标大小、旋转
变化的影响,提高了跟踪算法的稳定性和可靠性下面是该算法的代码实现
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 219 220 221 222 223 224 225 226 227 228 229 230 231 232 | #include <iostream> #include <opencv2/highgui/highgui.hpp> #include <opencv2/imgproc/imgproc.hpp> #include <opencv2/core/core.hpp> #include <opencv2/opencv.hpp> using namespace std; using namespace cv; /********gloable variable**********/ bool isFirstFrame = true ; bool drawBox = false ; bool isChooseObj = false ; Rect box; //tracking object Rect roi; // float w = 0.4; // vector<vector<Point> > contours; vector<Vec4i> hierarchy; /********************************************************** * input: * return : NULL * Description: mouse callback function **********************************************************/ static void mouse_callback( int event, int x, int y, int , void *) { switch ( event ) { case CV_EVENT_MOUSEMOVE: if (drawBox) { box.width = x-box.x; box.height = y-box.y; } break ; case CV_EVENT_LBUTTONDOWN: drawBox = true ; box = Rect(x, y, 0, 0); break ; case CV_EVENT_LBUTTONUP: drawBox = false ; if ( box.width < 0 ) { box.x += box.width; box.width *= -1; } if ( box.height < 0 ) { box.y += box.height; box.height *= -1; } isChooseObj = true ; break ; } } /********************************************************** * input: * image---the image need to segment * return: * threshold--segment value * Description: used to get the threshold for image binary **********************************************************/ int getThresholeValue(cv::Mat& image) { assert (image.channels() == 1); int width = image.cols ; int height = image.rows ; int x = 0,y = 0; int pixelCount[256] = { 0 }; float pixelPro[256] = { 0 }; int i, j, pixelSum = width * height, threshold = 0; uchar* data = image.ptr<uchar>(0); //count every pixel number in whole image for (i = y; i < height; i++) { for (j = x;j <width;j++) { pixelCount[data[i * image.step + j]]++; } } //count every pixel's radio in whole image pixel for (i = 0; i < 256; i++) { pixelPro[i] = ( float )(pixelCount[i]) / ( float )(pixelSum); } // segmentation of the foreground and background // To traversal grayscale [0,255],and calculates the variance maximum //grayscale values for the best threshold value float w0, w1, u0tmp, u1tmp, u0, u1, u,deltaTmp, deltaMax = 0; for (i = 0; i < 256; i++) { w0 = w1 = u0tmp = u1tmp = u0 = u1 = u = deltaTmp = 0; for (j = 0; j < 256; j++) { if (j <= i) //background { w0 += pixelPro[j]; u0tmp += j * pixelPro[j]; } else { //foreground w1 += pixelPro[j]; u1tmp += j * pixelPro[j]; } } u0 = u0tmp / w0; u1 = u1tmp / w1; u = u0tmp + u1tmp; //Calculating the variance deltaTmp = w0 * (u0 - u)*(u0 - u) + w1 * (u1 - u)*(u1 - u); if (deltaTmp > deltaMax) { deltaMax = deltaTmp; threshold = i; } } //return the best threshold; return threshold; } /********************************************************** * * input: * curPoint-----current mass center point * prePoint-----previous mass center point * prePrePoint--prePre mass center point * return:next frame's obj mass center point * Description : use current mass center point,pre mess center * point,prePre mass center point to preict next * mass center point * **********************************************************/ Point objStatPredict(Point curPoint,Point prePoint,Point prePrePoint) { Point nextMassCenter; nextMassCenter.x = (4*curPoint.x +prePrePoint.x - 2*prePoint.x)/3; nextMassCenter.y = (4*curPoint.y +prePrePoint.y - 2*prePoint.y)/3; return nextMassCenter; } /********************************************************** * * input: * argc-----current mass center point * argv-----previous mass center point * **********************************************************/ int main( int argc, char **argv) { Mat pFrame; //read frame from video VideoCapture pCapture; pCapture.open( "./plane.mov" ); if (!pCapture.isOpened()) { cout<< "open video error" <<endl; return -1; } namedWindow( "centroid tracking" ); moveWindow( "centroid tracking" ,100,100); pCapture.read(pFrame); //read a frame from video if (isFirstFrame) { //remind people to choose obj to tracking putText(pFrame, "choose obj to tracking" ,Point(20,20),\ FONT_HERSHEY_SIMPLEX,1,Scalar(0,0,255)); //Register mouse callback to draw the bounding box setMouseCallback( "centroid tracking" ,mouse_callback,NULL); while (!isChooseObj) { imshow( "centroid tracking" , pFrame); if (cvWaitKey(33) == 'q' ) { return 1; } } cout<< "choosed tracking object" <<endl; roi = box; //Remove mouse_callback cvSetMouseCallback( "centroid tracking" , NULL, NULL ); } Mat grayFrame; Mat thresholdFrame; Mat roiFrame; int segValue; //threshold value return by OSTU while (1) { pCapture.read(pFrame); pFrame(roi).copyTo(roiFrame); //absdiff(pFrame,bkground,roiFrame); cvtColor(roiFrame,grayFrame,CV_RGB2GRAY); blur(grayFrame,grayFrame, Size(7,7)); segValue = getThresholeValue(grayFrame); threshold(grayFrame,thresholdFrame,segValue,255,CV_THRESH_BINARY); //Mat element = getStructuringElement(MORPH_RECT,Size(7,7),Point(-1,-1)); //erode(thresholdFrame,thresholdFrame,element); /// Find outer contours findContours( thresholdFrame, contours, hierarchy, \ CV_RETR_EXTERNAL, CV_CHAIN_APPROX_SIMPLE, Point(0, 0) ); double maxArea = 0.0; int maxAreaIdx = 0; //find the max area index for ( int k = 0; k < contours.size(); ++k) { double tempArea = fabs (contourArea(contours[k])); if (tempArea > maxArea) { maxArea = tempArea; maxAreaIdx = k; } } Rect boundRect[1]; boundRect[0] = boundingRect(contours[maxAreaIdx]); ///Get the moments vector<Moments> mu(1); mu[0] = moments(contours[maxAreaIdx], false ); /// Get the mass centers: vector<Point2f> mc(1); mc[0] = Point2f(mu[0].m10/mu[0].m00+roi.x , mu[0].m01/mu[0].m00+roi.y); /// Draw contours //draw obj contour //drawContours(pFrame(roi),contours, maxAreaIdx,Scalar(0,0,255), \ // 2, 8, hierarchy, 0, Point() ); //draw mass center circle(pFrame,mc[maxAreaIdx], 4, Scalar(0,255,0), -1, 8, 0 ); //calculates and returns the minimal up-right bounding //rectangle for the contours[maxAreaIdx] set. rectangle(pFrame,Rect(boundRect[0].tl().x+roi.x, \ boundRect[0].tl().y+roi.y,boundRect[0].width,\ boundRect[0].height), Scalar(0,0,255), 2, 8, 0 ); imshow( "centroid tracking" ,pFrame); //imshow("centroid tracking",thresholdFrame); waitKey(33); } return 0; } |
实现效果如下:
- 文章2302
- 用户1336
- 访客10974817
如果你想获得伟大,别再请求许可。
UAC的限制引起WM_DROPFILES无法响应的解决办法
MeasureSpec中三种模式:UNSPECIFIED,AT_MOST,EXACTLY
发几个实用的chrome插件
CentOS下使用 svnsync迁移SVN代码库
仙剑奇侠传3d回合-PC端辅助
【转载】C++实现EXE加载到内存执行
【收藏】OpenCV一些常用库函数
《闲来麻将》搭建教程
文本转语音系统Spark-TTS
wordpress转xiuno附件自动插入工具
Mac OS最简单及(Karabiner)快捷键设置
使用Putty上传文件?
ndk神奇问题之non-numeric second argument to `wordlist' function: '8.7z'