更全的杂志信息网

中心对称纹理描述及其在目标跟踪中的应用

更新时间:2009-03-28

0 引言

运动目标跟踪在自动侦察、视觉导航、人机交互等领域的广泛应用已使其成了计算机视觉领域的一个研究热点[1]。尽管大量算法已被提出,但诸如光照变化、姿态变化、遮挡、运动模糊等因素的影响,设计一个鲁棒的跟踪算法依然具有很大的挑战性。

假设目标在第一帧的状态已知,跟踪可以建模成一个状态估计问题,而目标表示则对观测模型的准确性起着至关重要的作用,文献[2]采用颜色特征构建直方图完成目标表示,但易受光照变化影响,Tavakoli[3]提出局部相似数量(local similarity number,LSN)这一纹理特征并结合颜色特征构建联合直方图减轻了光照变化的影响,此外基于候选区域特征点及相互之间的结构关系也是当前目标表示的一个热点[4-5],但对特征点的数量要求较高,Babenko等[6]利用 Harr-like特征并结合多样例学习机制完成目标表示,在此基础上,张开华等[7]基于压缩感知理论提取Harr-like特征完成目标表示,也取得了不错的跟踪效果,近年来稀疏表示[8-10]也成了跟踪领域的一个研究热点,这类算法将目标表示成一系列模板的线性组合,但算法的计算复杂度较高影响了跟踪实时性,基于深度学习的目标跟踪[11-13]通过大量图像集的线下训练得到判别性较高的特征来完成目标表示,但跟踪前的线下训练耗时较高,不利于目标跟踪的实时应用。

3.2 IFN-γ与获得性免疫 HBV的清除,主要通过特异CD8+T细胞介导的细胞毒性T淋巴细胞(CTL)和CD4+辅助细胞联合发挥作用,非溶细胞病变抗病毒是CTL工作的主要机制。非溶细胞性机制是通过细胞接触和释放细胞因子,主要为IFN-γ。IFN-γ可以抑制HBV病毒核衣壳的形成,影响病毒HBV RNA的稳定性并且还能降解它,主要通过控制肝细胞内P45、P39、P26这3个HBV DNA 结合蛋白的含量和活性,进而影响 HBV DNA 的转录和翻译。

LBP(local binary patterns)纹理特征由于不受光照变化影响,在目标跟踪得到了广泛应用[14-15]。本文受文献[16]启发,利用以中心像素为对称点的局部梯度信息,提出了中心对称纹理描述(center symmetric texture operator, CSTO)这一新的局部相似度纹理描述算子,并通过生成CSTO掩膜提取真实目标像素完成目标表示,最后结合粒子滤波(particle filter)框架实现了一个鲁棒的目标跟踪算法。

与正常对照组相比,GM 1~9 g·L-1组显著抑制HEK293细胞存活(P<0.01),半数抑制浓度(IC50)为3 g·L-1(图1)。SVPr 1,2和4 g·L-1显著缓解GM 3 g·L-1对HEK293细胞存活的抑制作用(P<0.01),与GM模型组相比,细胞存活率显著上升(P<0.01)(图2)。

1 局部相似度纹理描述算子

1.1 局部相似数量

从以上分析可知LSN极大提高了算子的效率,但同时也弱化了算子对复杂纹理结构的描述能力,尤其体现在中心像素的局部相似数量较低时(如边缘、角点等),LSN将无法区分不同的纹理结构。而文献[16]利用了以中心像素为对称点的局部梯度信息,通过比较邻域像素对的大小来描述中心像素,提高了LBP算子的纹理描述能力,如图1所示。

 

以P=8为例,LSP将产生256种模式,Tavakoli[3]认为这些模式中包含的结构信息对于计算中心像素的显著程度并无帮助,因此计算与中心像素相似的邻域像素个数即可,用20代替式(1)中的2i,模型简化为LSN:

 

1.2 中心对称局部相似数量

Tavakoli[3]在原始LBP的基础上,提出了一种纹理描述算子的简化模型,通过中心像素 gc及其以 R为半径的 P个邻域像素 gi(i=0,…,P-1)的差值大小建立模型,如果差值大小小于一定阈值d,则意味该邻域像素与中心像素相似,贴标签为1,否则贴标签为0,模型定义为LSP(local similarity pattern):

在图1右侧框内可以看出CS-LBP算子主要是利用了以中心像素为对称点的4组像素点对的信息,为此可以充分利用中心像素的局部梯度信息来提高算子对复杂纹理结构的描述能力,在 LSN的基础上增加以中心像素为对称点的像素对的差值关系,来解决LSN算子虽然计算复杂度降低但复杂纹理结构区分度不够的问题,如图2所示。

  

图1 LBP和CS-LBP算子(以8邻域为例)Fig.1 LBP and CS-LBP operators (Take 8 neighborhood as an example)

  

图2 LSN和CSTO算子(以8邻域为例)Fig.2 LSN and CSTO operators (Take 8 neighborhood as an example)

图2中的CSTO第1、2、3列的算子可表示成fo(x,d)、fr(x,d)、fl(x,d)。fo(x,d)描述中心像素与邻域像素的相似数量信息;fr(x,d)、fl(x,d)描述以中心像素为对称点的邻域像素对的梯度信息,当像素对的差值大于阈值d时说明中心像素处于角点边缘等位置。因此本文定义CSTO为一组3维向量:

 

式中:

 

式(3)表明:CSTO中第1维是原始LSN算子中心像素的局部相似数量,第 2、3维向量提取了中心像素的局部梯度信息。下面以P=8、R=1、d=2 为例(下同),说明提出的 CSTO算子的对不同纹理结构的描述能力,如图3所示:示例1和示例2的中心像素具有不同的纹理结构,LSN算子计算得到的局部相似数量均为3,本文CSTO算子的3维向量描述分别为(3,2,2)和(3,2,1)。对于8邻域而言,CSTO算子共产生225(9×5×5)种不同模式,较LSN算子的 9 种模式能将不同的纹理结构更好加以区分。

为框选区域内像素点与中心的距离。于是目标模型P={p(u)}u=1,2…,m∈Rm表示为:

  

图3 LSN和CSTO算子生成过程Fig.3 The generative process of LSN andCSTO operators

2 基于CSTO 的目标表示

2.1 CSTO掩膜生成

式(9)中的观测模型 在跟踪任务中起着至关重要的作用,依据2.2的目标表示构建为:

 

以文献[14]提供的测试视频tabletennis.avi(共58帧)为实验数据,用CSTO掩膜提取目标框中的真实目标像素,图4给出了掩膜提取目标像素的一个示例。式(5)中的阈值d刻画了像素之间的相似度,太大不具有区分性,实验表明不同阈值d将产生不同的提取效果,本文对d∈{1,2,3,4,5}的提取效果进行评估,评估标准一是准确率即提取的像素中属于真实目标区域的比率),二是召回率(即真实目标区域中被掩膜提取的像素所占的比率),图5实验数据表明阈值取2或3时能得到较好的提取效果。从图4可以发现原始目标框中目标四周背景部分较为平坦,各像素点局部相似度较高,而目标部分(人脸)则纹理结构相对较为复杂,各像素点局部相似度较低,通过本文的CSTO掩膜可以将局部相似度较高的像素位置设置为 0,不加入目标表示的计算,因此目标边缘、角点等信息得到了较好保留,且目标周围背景像素由于区域较为平坦而得到了很好地抑制,因此增加了目标表示模型的表征能力。

  

图4 CSTO掩膜提取目标像素示例Fig.4 The example of extracting target pixelsby CSTO mask

  

图5 不同阈值d提取目标像素效果分析Fig.5 Analysis of target pixel effects extracted under different threshold d

2.2 目标表示

在第一帧框选要跟踪的目标后,对CSTO掩膜提取的框选区域中的真实目标像素进行纹理信息统计,由于式(3)中CSTO算子是一组3维向量,每一维分别有9、5、5 种模式,则目标特征空间由 m=9×5×5个分量构成,为了增强目标表示的可靠性,我们为离框选目标中心较近的像素点信息赋予较高的权重,采用Epanechikov核函数[2]

 

压力控制方案如图1所示。在该方案中,压力传感器测到的乙二醇管道的压力值与给定的压力值的差值输入到控制器,控制器通过特定的算法用电压控制变频器的输出频率值,而交流电机的转速与电源的频率成正比,从而变频器通过改变频率来改变交流电机的转速,交流电机通过转速调节乙二醇管道中液体的压力。压力传感器检测到的压力值与给定的压力值之间的误差重新传送到控制器中,通过改变变频器的参数调整交流电机的转速,最终使得检测到的压力值与给定压力值匹配。

 

式中:n为框选区域中的真实目标像素个数;xi为各像素坐标;x0为目标中心坐标;tx和ty分别是框选区域宽和高;δ[b(xi)-μ]为Kronecker delta函数:判断xi处的纹理信息是否属于第μ个分量。为适应目标外观在跟踪过程中的不断变化,目标模型P应该得到实时更新,为此我们采用如下更新机制:

 

式中:Pt是第t帧的目标模型;Pt-1是第t-1帧的目标模型;Qt-1是第 t-1帧的跟踪结果的目标表示;λ∈(0.5,1)是学习率。这一在线更新机制不仅考虑到了目标外观的变化,而且保留了之前帧稳定的目标表示。

式中:Pt是第t帧的目标模型;是第 t帧中第 i个粒子采样样本的目标表示;表示二者之间的巴氏系数,越大表示二者越相似。

3 粒子滤波跟踪框架

完成目标表示后,文献[3]采用均值漂移(mean shift)搜索机制完成跟踪,但mean shift容易导致局部收敛无法搜索到最佳跟踪效果,因此本文跟踪算法建立在粒子滤波跟踪框架下,给定前t帧的观测序列Ot={o1,…,ot},根据贝叶斯滤波理论,跟踪可以看成一个状态估计问题,即完成后验概率的估计:

 

式中:st=(xt,yt)是当前目标状态;xt、yt分别为沿x和y方向的转移量;p(st|st-1)是运动模型:根据前一帧目标状态st-1预测当前帧目标状态st,假设目标状态参数相互独立,因此可以以高斯分布来建模:是观测模型:目标状态st下的观测ot与目标的相似程度。而粒子滤波器正是通过带有重要性权重的粒子集合来近似式(8)的积分式得到后验概率,其中N个粒子的重要性权重,因此最优目标状态可以通过最大化下式得到:

SSD算法利用多层特征图来预测目标,但并未充分利用各个网络层之间信息的结合。对于小目标的检测,主要利用浅层的网络层去匹配,然而浅层网络的特征图表征能力较弱,对于小目标容易出现误检和漏检现象。

 

角点、边缘等区域像素较平坦区域能更好地表示目标,因此如果能保留角点、边缘信息的同时去除平坦区域信息,势必能更高效且准确地完成目标表示,为 此 本文定义CSTO掩膜为:

因着海兰抱病,今日并未去大殿行哭礼,青樱见她立在门外,便道:“这样夜了怎么还来?着了风寒更不好了,快进来罢。”

盖地(2008)指出:增值税作为企业上缴国家的最主要的税种,在现行利润表中了无痕迹,而以其为计税依据计算附加税却在利润表中列示,不具合理性,也不符合税负转嫁理论和商品价值论,现行的增值税会计处理方法影响财务报表质量。[3]

 

A.通过天街美好生活的描绘,表现了诗人对黑暗现实的痛恨,对理想生活的向往,激发人们为实现这一理想而奋斗。

选用文献[17-18]提供的具有不同挑战性的标准测试视频序列(共2847帧)来评估跟踪算法的性能,序列所具特性如表1所示。

4 实验与结果分析

NDF含量年际变化不显著(P>0.05),而月变化极显著品种(P<0.01)。2014和2015年2年平均以青海草地早熟禾NDF含量最低,为52.87%,其次为星星草(54.70%)、青海中华羊茅(55.94%)、同德老芒麦(59.01%)、垂穗披碱草(62.84%)。各牧草品种NDF含量从7月到9月呈先降低后升高的趋势。随着牧草生长时间的延长,NDF含量升高(图3)。

 

表1 实验视频的不同特性Table 1 The different characteristics of video

 

为验证CSTO算子的目标表征能力及跟踪算法的鲁棒性,分别将采用CSTO算子和particle filter框架的跟踪(CSTO+PF)、采用CSTO算子和mean shift框架的跟踪(CSTO+MS)、采用LSN算子和mean shift框架的跟踪[3](LSN+MS)以及当前比较火热的基于压缩感知的跟踪[7](CT)和基于多示例学习的跟踪[6](MIL)进行对比分析。实验平台采用Intel Core(TM)2 Duo CPU主频 2.5 GHz的 PC机,利用OpenCV2.4.9在VS2010上进行调试。

4.1 参数设置

CSTO算子:采用半径R=8的P=8个邻域像素,像素相似阈值 d=2;目标模型中学习率:Car、Suv、Crossing三个视频中目标在跟踪过程姿态视角等变化不大故设定为λ=0.9,David、Faceocc2、Tiger1三个视频中目标在跟踪过程姿态视角等变化较大故设定为λ=0.7;particle filter跟踪框架中目标状态中标准差设为σx=4、σy=4,粒子数 N=200;mean shift框架中最大迭代次数设为50(参照文献[13])。

4.2 结果分析

实验采用常见的两个标准[7]对算法性能进行评估,一是跟踪成功率(success rate,SR),定义代表每一帧跟踪结果的得分,其中 RT代表跟踪结果区域,RG代表目标真实区域,若sr>0.5则认为跟踪结果正确;二是中心位置误差(center location error,CLE),定义为:

 

式中:(xT,yT)是跟踪结果的目标位置;(xG,yG)是目标真实位置。

表2给出了算法在实验视频中的成功率及平均跟踪速度(average frames per second,FPS),加粗代表最优性能,加下划线代表次优性能。可见本文采用的CSTO+PF与其它算法相比基本获得了最优或次优性能,除了在 Faceocc2序列中成功率为 89.3%,低于CT的100%和MIL的99.0%,而本文CSTO+MS得益于CSTO的纹理描述能力平均跟踪成功率较文献[3]的LSN+MS提高了31.7%,在所有对比算法中排名第2,仅次于本文CSTO+PF的87.9%。表2最后一行显示本文 CSTO+PF的平均跟踪速度为 15.1 Frame/s,逊于CSTO+MS的25.7 Frame/s,但平均跟踪成功率提高了4.7%,原因在于particle filter框架比mean shift框架耗时更多,但避免了mean shift局部收敛的问题,因此获得了更佳的跟踪效果。

 

表2 跟踪成功率(SR)和平均跟踪速度(FPS)对比Table 2 Comparison between success rate (SR) and average frames per second (FPS)

 

表 3给出了算法在实验视频中的跟踪误差对比,其中Max代表中心位置误差最大值、Mean代表中心位置误差平均值,Std代表中心位置误差标准差,加粗代表最优性能,斜体加下划线代表次优性能。由于Suv序列中目标在被全局遮挡后,LSN+MS、CT、MIL三种方法完全跟丢目标,故不再统计算法中心位置误差。同样可见,在中心位置误差最大值(Max)下CSTO+PF全部获得了最优或次优性能,在中心位置误差平均值(Mean)下 CSTO+PF在除了 David序列外基本获得了最优或次优性能,而且在中心位置误差标准差(Std)下CSTO+PF除了David序列都获得了最优性能,这意味着CSTO+PF能获得准确且更稳定的性能。

图6给出了本文算法的部分跟踪结果(左上角数字代表帧序数),下面针对视频不同特性对本文算法的鲁棒性进行分析。相似目标和运动模糊:Car序列是一段航拍视频,航拍平台的剧烈运动导致运动模糊的出现,跟踪目标为中间白色小车,前后各有相似目标且目标与背景不易区分,Tiger1序列中第100~150帧左右目标的快速运动同样导致了运动模糊,算法的全程鲁棒跟踪体现了CSTO算子的纹理描述能力;遮挡:Suv、Faceocc2和Tiger1序列均出现了不同程度的遮挡,Suv序列第206帧左右目标被完全遮挡,当目标重新出现在场景中时,算法依然能重新定位到目标,Faceocc2序列第686帧当人脸被纹理复杂的书本局部遮挡时,算法的跟踪误差偏大,这里可以结合其他目标信息(如色度)加以改进;光照变化:David、Crossing序列中出现了不同程度的光照变化,当视频中目标逐渐从暗处移动到亮处是,算法基本能够很好定位到目标(David序列第31帧左右出现了较大偏差),这得益于CSTO算子采用局部相似程度来描述具有良好的光照不变性;视角和姿态变化:David、Faceocc2、Crossing和Tiger1序列中目标姿态出现了不同程度的变化,如David序列第169帧左右、Faceocc2序列第339帧左右人脸均发生了旋转,Crossing、Tiger1序列中目标姿态一直处于不断变化过程中,算法能鲁棒完成跟踪任务是因为CSTO算子采用圆形区域采样具有良好的旋转不变性,但在Crossing序列中随着目标远离场景过程中尺度逐渐变小,算法的跟踪误差逐渐偏大以致丢失目标(如第119帧),下一步拟结合现有的尺度更新机制解决此类问题。

5 结论

从提高目标表示能力出发,提出一种新的纹理描述算子,并代入粒子滤波框架完成跟踪。在具有不同挑战性的视频上的实验表明,本文方法在光照变化、姿态变化、遮挡、运动模糊等情况下较其它算法获得了准确且更稳定的跟踪性能:平均跟踪成功率达到87.9%,平均跟踪速度为15.1 Frame/s。下一步拟打算优化粒子滤波框架以进一步提高算法实时性,并将尺度更新和遮挡判断机制嵌入到本文算法框架中进一步提高算法的鲁棒性。

 

表3 中心位置误差(CLE)对比 Table 3 Center location error (CLE) comparison

 
  

图6 本文算法的部分跟踪结果 Fig.6 Partial tracking results of the proposed algorithm

参考文献:

[1]Emilio M. Video Tracking: Theory and Practice[M]. London: Queen Mary University of London, UK, 2012: 15-24.

[2]Comamiciu D,Ramesh V,Meer P. Kernel-Based object tracking[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2003, 25(5):564-577.

[3]Tavakoli H R, Moin M S, HeikkilA J. Local similarity number and its application to object tracking[J]. International Journal of Advance Robotic Systems, 2013, 10(1): 184-190.

[4]Georg Nebehay, Roman Pflugfelder. Consensus-based matching and tracking of keypoints for object tracking[C]//IEEE Winter Conference on Applications of Computer Vision, 2014: 862-869.

[5]Sam Hare, Amir Saffari, Philip H S Torr. Efficient online structured output learning for keypoint-based object tracking[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2012: 1894-1901.

[6]Babenko B, Yang M H, Belongie S. Robust object tracking with online multiple instance learning[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33(8): 1619-1632.

[7]ZHANG K H, ZHANG L, YANG M H. Real-time compressive tracking[C]// European Conference on Computer Vision, 2012: 864-877.

[8]MEI X, LING H. Robust visual tracking and vehicle classification via sparse representation[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2011, 33: 2259-2272.

[9]BAO C L, WU Y, LING H B, et al. Real time robust L1 tracker using accelerated proximal gradient approach[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2012, 157(10): 1830-1837.

[10]ZHONG W, LU H C, YANG M H. Robust object tracking via sparsity-based collaborative model[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2012, 157(10): 1838-1845

[11]GAO J, LING H, HU W, et al. Transfer learning based visual tracking with Gaussian processes regression[C]//European Conference on Computer Vision, 2014, 8691: 188-203.

[12]WANG N, YEUNG D Y. Learning a deep compact image representation for visual tracking[J]. Neural Information Processing Systems, 2013:809-817.

[13]WANG Q, CHEN F, YANG J, et al. Transferring visual prior for online object tracking[J]. IEEE Transactions on Image Processing, 2012, 21(7):3296-3305.

[14]NING J F, ZHANG L, ZHANG D, et al.Robust object tracking using joint color-texture histogram[J]. International Journal of Pattern Recognition and Artificial Intelligence, 2009, 23(7): 1245-1263.

[15]张炯, 宁继峰, 颜永丰, 等. 对立色LBP模型的目标跟踪[J]. 中国图象图形学报, 2012, 17(11): 1418-1424.ZHANG Jiong, NING Jifeng, YAN Yongfeng, et al. Object tracking with opponent color LBP model[J]. Journal of Image and Graphics, 2012,17(11): 1418-1424.

[16]Heikkila M, Pietikainen M, Schnid C. Description of interest regions with local binary patterns[J]. Pattern Rrecognition, 2009, 42(3):425-436.

[17]WU Y, LIM J, YANG M H. Online object tracking: A benchmark[C]//IEEE Conference on Computer Vision and Pattern Recognition, 2013,9(4): 2411-2418.

[18]杨智雄, 余春超, 严敏, 等.基于特征融合的粒子滤波红外目标跟踪算法[J]. 红外技术, 2016, 38(3): 211-217.YANG Zhixiong, YU Chunchao, YAN min, et al. Particle filter infrared target tracking algorithm based on feature fusion[J]. Infrared Technology,2016, 38(3):211-217.

 
程国
《红外技术》 2018年第05期
《红外技术》2018年第05期文献

服务严谨可靠 7×14小时在线支持 支持宝特邀商家 不满意退款

本站非杂志社官网,上千家国家级期刊、省级期刊、北大核心、南大核心、专业的职称论文发表网站。
职称论文发表、杂志论文发表、期刊征稿、期刊投稿,论文发表指导正规机构。是您首选最可靠,最快速的期刊论文发表网站。
免责声明:本网站部分资源、信息来源于网络,完全免费共享,仅供学习和研究使用,版权和著作权归原作者所有
如有不愿意被转载的情况,请通知我们删除已转载的信息 粤ICP备2023046998号