本篇文章为大家展示了怎么在opencv3/C++中利用Tracker实现一个目标跟踪功能,内容简明扼要并且容易理解,绝对能使你眼前一亮,通过这篇文章的详细介绍希望你能有所收获。
简介
MIL: TrackerMIL 以在线方式训练分类器将对象与背景分离;多实例学习避免鲁棒跟踪的漂移问题.
OLB: TrackerBoosting 基于AdaBoost算法的在线实时对象跟踪.分类器在更新步骤中使用周围背景作为反例以避免漂移问题.
MedianFlow: TrackerMedianFlow 跟踪器适用于非常平滑和可预测的运动,物体在整个序列中可见.
TLD: TrackerTLD 将长期跟踪任务分解为跟踪,学习和检测.跟踪器在帧之间跟踪对象.探测器本地化所观察到的所有外观,并在必要时纠正跟踪器.学习估计检测器的错误并进行更新以避免再出现这些错误.追踪器能够处理快速运动,部分遮挡,物体缺失等情况.
KCF: TrackerKCF 使用目标周围区域的循环矩阵采集正负样本,利用脊回归训练目标检测器,并成功的利用循环矩阵在傅里叶空间可对角化的性质将矩阵的运算转化为向量的Hadamad积,即元素的点乘,大大降低了运算量,提高了运算速度,使算法满足实时性要求.
部分相关API:
TrackerMIL
static Ptr<TrackerMIL> create(const TrackerMIL::Params ¶meters);
CV_WRAP static Ptr<TrackerMIL> create();
struct CV_EXPORTS Params
{
PARAMS();
//采样器的参数
float samplerInitInRadius; //初始收集正面实例的半径
int samplerInitMaxNegNum; //初始使用负样本
float samplerSearchWinSize; //搜索窗口的大小
float samplerTrackInRadius; //在跟踪期间收集正面实例的半径
int samplerTrackMaxPosNum; //在追踪期间使用正面样本
int samplerTrackMaxNegNum; //在跟踪期间使用的负样本
int featureSetNumFeatures; //特征
void read(const FileNode&fn);
void write(FileStorage&fs)const;
};
TrackerBoosting
static Ptr<TrackerBoosting> create(const TrackerBoosting::Params ¶meters);
CV_WRAP static Ptr<TrackerBoosting> create();
struct CV_EXPORTS Params
{
PARAMS();
int numClassifiers; //在OnlineBoosting算法中使用的分类器的数量
float samplerOverlap; //搜索区域参数
float samplerSearchFactor; //搜索区域参数
int iterationInit; //初始迭代
int featureSetNumFeatures; //特征
//从文件读取参数
void read(const FileNode&fn);
//从文件写入参数
void write(FileStorage&fs)const;
};
示例
首先获取视频的第一帧,通过点击左键框选选择要跟踪的目标,点击右键确认并使用MIL开始跟踪.(从实际情况看来,算法对过程中有遮挡的情况跟踪能力较差.)
(环境:Ubuntu16.04+QT5.8+opencv3.3.1)
#include <opencv2/opencv.hpp>
#include <opencv2/video.hpp>
#include <opencv2/tracking.hpp>
#include <opencv2/tracking/tracker.hpp>
using namespace cv;
void draw_rectangle(int event, int x, int y, int flags, void*);
Mat firstFrame;
Point previousPoint, currentPoint;
Rect2d bbox;
int main(int argc, char *argv[])
{
VideoCapture capture;
Mat frame;
frame = capture.open("/home/w/mycode/QT/img/runners.avi");
if(!capture.isOpened())
{
printf("can not open ...\n");
return -1;
}
//获取视频的第一帧,并框选目标
capture.read(firstFrame);
if(!firstFrame.empty())
{
namedWindow("output", WINDOW_AUTOSIZE);
imshow("output", firstFrame);
setMouseCallback("output", draw_rectangle, 0);
waitKey();
}
//使用TrackerMIL跟踪
Ptr<TrackerMIL> tracker= TrackerMIL::create();
//Ptr<TrackerTLD> tracker= TrackerTLD::create();
//Ptr<TrackerKCF> tracker = TrackerKCF::create();
//Ptr<TrackerMedianFlow> tracker = TrackerMedianFlow::create();
//Ptr<TrackerBoosting> tracker= TrackerBoosting::create();
capture.read(frame);
tracker->init(frame,bbox);
namedWindow("output", WINDOW_AUTOSIZE);
while (capture.read(frame))
{
tracker->update(frame,bbox);
rectangle(frame,bbox, Scalar(255, 0, 0), 2, 1);
imshow("output", frame);
if(waitKey(20)=='q')
return 0;
}
capture.release();
destroyWindow("output");
return 0;
}
//框选目标
void draw_rectangle(int event, int x, int y, int flags, void*)
{
if (event == EVENT_LBUTTONDOWN)
{
previousPoint = Point(x, y);
}
else if (event == EVENT_MOUSEMOVE && (flags&EVENT_FLAG_LBUTTON))
{
Mat tmp;
firstFrame.copyTo(tmp);
currentPoint = Point(x, y);
rectangle(tmp, previousPoint, currentPoint, Scalar(0, 255, 0, 0), 1, 8, 0);
imshow("output", tmp);
}
else if (event == EVENT_LBUTTONUP)
{
bbox.x = previousPoint.x;
bbox.y = previousPoint.y;
bbox.width = abs(previousPoint.x-currentPoint.x);
bbox.height = abs(previousPoint.y-currentPoint.y);
}
else if (event == EVENT_RBUTTONUP)
{
destroyWindow("output");
}
}
上述内容就是怎么在opencv3/C++中利用Tracker实现一个目标跟踪功能,你们学到知识或技能了吗?如果还想学到更多技能或者丰富自己的知识储备,欢迎关注天达云行业资讯频道。