《时空上下文视觉跟踪(STC)算法的解读与代码复现.docx》由会员分享,可在线阅读,更多相关《时空上下文视觉跟踪(STC)算法的解读与代码复现.docx(14页珍藏版)》请在第一文库网上搜索。
1、时空上下文视觉跟踪(STC)算法的解读与代码复现zouxy09zouxy09本博文主要是关注一篇视觉跟踪的论文。这篇论文是KaihUaZhang等人今年投稿到一个会议的文章,因为会议还没有出结果,所以作者还没有发布他的MatIab源代码。但为了让我们先睹为快,作者把论文放在arxiv这个网站上面供大家下载了。对于里面所描述的神奇的效果,大家都跃跃欲试,也有人将其复现了。我这里也花了一天的时间去免现了单尺度的C+版本,主要是基于OPeneV。多尺度的有点复杂,这个后面再做考虑了。另外,能力有限,论文解读和代码实现可能会出现错误,所以如果代码里面出现错误,还望大家不吝指点。论文见:KaihuaZh
2、ang,1eiZhang,Ming-HsuanYang,andDavidZhang,FastTrackingviaSpatio-Tempora1Context1earning目前作者已公开了支持多尺度的MatIab代码了哦。可以到以下网址下载:p.po1yu.edu.hk/-cs1zhang/STC/STC.htm一、概述该论文提出一种简单却非常有效的视觉跟踪方法。更迷人的一点是,它速度很快,原作者实现的Mat1ab代码在i7的电脑上达到350fps(.该论文的关键点是对时空上下文(Spatio-Tempora1Context)信息的利用。主要思想是通过贝叶斯框架对要跟踪的目标和它的局部上下文
3、区域的时空关系进行建模,得到目标和其周围区域低级特征的统计相关性。然后综合这一时空关系和生物视觉系统上的focusofattention特性来评估新的一帧中目标出现位置的置信图,置信最大的位置就是我们得到的新的一帧的目标位置。另外,时空模型的学习和目标的检测都是通过FFT(傅里叶变换)来实现,所以学习和检测的速度都比较快。二、工作过程具体过程见下图:Frame(t)FocusofattentionSpatia1contextmode1卡(a)1cam1U!COatCX111theMhframe(b)DcicciobjectIOca1iOathe(t+1)(hIhmc(1)t帧:在该帧目标(第一
4、帧由人工指定)己经知道的情况下,我们计算得到一个目标的置信图(ConfidenceMap,也就是目标的似然)。通过生物视觉系统上的focusOfattention特性我们可以得到另一张概率图(先验概率)。通过对这两个概率图的傅里叶变换做除再反傅里叶变换,就可以得到建模目标和周围背景的空间相关性的空间上下文模型(条件概率)。然后我们用这个模型去更新跟踪下一帧需要的时空上下文模型(可能这里还不太能理解,看到后面的相关理论分析和算法描述后可能会清晰一点)。(2)t+1帧:利用t帧的上下文信息(时空上下文模型),卷积图像得到一个目标的置信图,值最大的位置就是我们的目标所在地。或者理解为图像各个地方对该
5、上下文信息的响应,响应最大的地方自然就是满足这个上下文的地方,也就是目标了。三、相关理论描述3.1、 上下文的重要性时间和空间上的上下文信息对跟踪来说是非常重要的。虽然对跟踪,我们一直利用了时间上的上下文信息(用t去跟踪t+1等),但对空间上下文信息的利用却比较匮乏。为什么空间上下文信息会重要呢?考虑我们人,例如我们需要在人群中识别某个人脸(众里寻他千百度),那我们为什么只关注它的脸呢?如果这个人穿的衣服啊帽子和其他人不一样,那么这时候的识别和跟踪就会更加容易和鲁棒。或者场景中这个人和其他的东西有一定的关系,例如他靠在一棵树上,那么他和树就存在了一定的关系,而树在场景中是不会动的(除非你摇动摄
6、像头了),那我们借助树来辅助找到这个人是不是比单单去找这个人要容易,特别是人被部分遮挡住的时候。还有一些就是如果这个人带着女朋友(有其他物体陪着一起运动),那么可以将他们看成一个集合结构,作为一组进行跟踪,这样会比跟踪他们其中一个要容易。总之,一个目标很少与整个场景隔离或者没有任何联系,因为总存在一些和目标运动存在短时或者长时相关的目标。这种空间上下文的相关性就是我们可以利用的。在视觉跟踪,局部上下文包括一个目标和它的附近的一定区域的背景。因为,在连续帧间目标周围的局部场景其实存在着很强的时空关系。例如,上图中的目标存在着严重的阻挡,导致目标的外观发生了很大的变化。然而,因为只有小部分的上下文
7、区域是被阻挡的,整体的上下间区域是保持相似的,所以该目标的局部上下文不会发生很大的变化。因此,当前帧局部上下文会有助于帮助预测下一帧中目标的位置。图中,黄色框的是目标,然后它和它的周围区域,也就是红色框包围的区域,就是该目标的上下文区域。左:虽然出现严重的阻挡导致目标的外观发现很大的变化,但目标中心(由黄色的点表示)和其上下文区域中的周围区域的其他位置(由红色点表示)的空间关系几乎没有发生什么变化。中:学习到的时空上下文模型(蓝色方框内的区域具有相似的值,表示该区域与目标中心具有相似的空间关系)。右:学习到的置信图。时间信息:邻近帧间目标变化不会很大。位置也不会发生突变。空间信息:目标和目标周
8、围的背景存在某种特定的关系,当目标的外观发生很大变化时,这种关系可以帮助区分目标和背景。对目标这两个信息的组合就是时空上下文信息,该论文就是利用这两个信息来进行对阻挡等鲁棒并且快速的跟踪。3.2、 具体细节跟踪问题可以描述为计算一个估计目标位置X似然的置信图:C(X)=P(X1O)=3)x(x,C(Z)Io)=Ec(z)cP(xc(z),o)P(c(z)o)置信图C(X)最大的那个位置X*就是目标的位置。从公式上可以看到,似然函数可以分解为两个概率部分。一个是建模目标与周围上下文信息的空间关系的条件概率P(xc(z),0),一个是建模局部上下文各个点X的上下文先验概率P(C(X)Io)e而条件
9、概率P(xc(z),o),也就是目标位置和它的空间上下文的关系我们需要学习出来。(1) Spatia1ContextMode1空间上下文模型空间上下文模型描述的是条件概率函数:F(xc(z),0)=hsc(xz)hsc(-z)是一个关于目标X和局部上下文位置Z的相对距离和方向的函数,它编码了目标和它的空间上下文的空间关系。需要注意的是,这个函数并不是径向对称的。这有助于分辨二义性。例如图三,左眼和右眼相对于位置X*来说他们的距离是一样的,但相对位置也就是方向是不一样的。所以他们会有不一样的空间关系。这样就对防止误跟踪有帮助。另外,这个模型是通过在线学习得到的。随着跟踪的进行不断更新。(2) C
10、ontextPriorMode1上下文先验模型这是先验概率,建模为:P(c(z)o)=/(z)w(z-x*)其中I(Z)是点Z的灰度,描述的是这个上下文Z的外观。W是一个加权函数,Z离X越近,权值越大。定义如下:w(z)=ae这个加权函数是由生物视觉系统的focusofattention启发得到的,它表示人看东西的时候,会聚焦在一个确定的图像区域。通俗的来说,就是离我们的目标越近的点,会越受关注,越远就不好意思了,你的光芒会被无情的忽略掉。那多远的距离会被多大程度的忽略呢?这就得看参数Sigma(相当于高斯权重函数的方差)了,这个值越大,越多的风景映入眼帘,祖国大好河山,尽收眼底。如果这个值越
11、小,那就相当于坐井观天了.(3) ConfidenceMap置信图定义为:c(x)=P(X1O)=这个公式的参数B是很重要的,太大太小效果可能差之千里。具体分析见原论文。这个置信图是在给定目标的位置X*的基础上,我们通过这个公式来计算得到上下文区域任何一点X的似然得到的。(4)时空模型的快速学习我们需要基于上下文先验模型和置信图来学习这个时空模型:=zc()sc(x-Z)(z)w(z-X*)=-C(X)8(/(X)Wd(X-铲),里面的卷积可以通过FFT来加速(时域的卷积相当于频域的乘积),具体如下:产(beTi产)=(sc(x)7(x)w(x-x*)展画)这样,我们就可以通过两个FFT和一个
12、IFFT来学习我们要的空间上下文模型了:ASC(X)=尸-1/(I(x)w(x-X*)然后我们用这个模型去更新时空上下文模型:H浮I=QP)H产+ph:C(4)最后的跟踪得到时空上下文模型后,我们就可以在新的一帧计算目标的置信图了:q+(x)=尸(尸(H骼(x)尸(A+(x)(x:x;)同样是通过FFT来加速。然后置信图中值最大的位置,就是我们的目标位置了。(5)多尺度的实现多尺度可以通过调整方差sigma来实现。和方差sigma的更新如下:,*再59另外,C)PenCV没有复数(FFT后是好数)的乘除运算,所以需要自己编写,参考如下:复数除法:z1.、/a+bi(a+b)(c+d)=c+di(+历)(=力)(ac+hd)+(be-ad)i(c+di)(c-di)c2+J2复数乘法:(+bi)(cdi)=ac+adi+bci+bdi2=ac+adi+bci-bd=(acd)+(C1d+bc)i具体代码如下:STCTrackenhcpviewp1aincopyC1. /Fastobjecttrackinga1gorithm2. /Author:zouxy3. /Date:2013-11-214. /HomePage:zouxy095. /Emai1:zouxy096. /Reference:KaihuaZhang,eta1.FastTrack