更全的杂志信息网

ELM增强自适应相关滤波的实时目标跟踪

更新时间:2009-03-28

0

近些年,目标跟踪是计算机视觉的热点研究之一。在视频监控、导航、人机交互、虚拟现实、机器人等多个方面有着重要的应用价值。由于跟踪目标在现实世界运动的复杂性,比如遮挡、形变、丢失、重现、背景光照变化、相似目标干扰以及目标尺度变化等问题,目前的跟踪算法在准确性、鲁棒性以及实时性上难以满足实际应用的需求,仍然是具有巨大挑战的难题。

具体来说,目标跟踪是根据给定序列图片或视频的初始帧中目标运动的状态信息,包括目标位置和宽高,然后逐帧预测下一帧中目标状态的过程。最近相关滤波器(correlation filter)在跟踪领域引起很大的关注和改进[16-19,21]。2010年,Bolme首次提出了MOOSE滤波器[10],其通过傅里叶变换将滤波器的运算转换成频域点积,节省了算法的计算量。Henriques在2012年提出了CSK算法[2],将循环矩阵理论以及核方法应用于相关滤波器。2014年,Henriques将多通道的HOG特征结合CSK框架提出了KCF算法[5],达到了每秒上百帧的速度。Danelljan等人在2014年提出了基于相关滤波器的多尺度算法DSST[9],该算法通过构建一个独立的尺度滤波器计算不同尺度输入样本的响应。当目标尺寸或图像分辨率较大时,大量尺度窗口的特征提取带来的计算量降低了算法的速度。

由于地域遥远,劳役繁重,耗费巨大,明宣宗宣德四年十二月壬辰(1430年1月14日),当宣德帝听到“松花江造船运粮所费良重”,就“谕行在工部臣曰:‘造船不易,使远方无益,徒以此烦扰军民’。遂敕总兵官都督巫凯:凡亦失哈所赍颁赐外夷叚匹等物,悉于辽东官库寄贮,命亦失哈等回京”。[5]翌年十一月庚戌(1430年11月28日),“总兵官都督巫凯奏虏寇犯边,请罢松花江造船之役。上曰:‘虏觇知边实,故来钞掠,命悉罢之’”,正式停止松花江造船事业。[6]

一直以来,tracking-by-detection都是目标跟踪领域主流的方法,其主要是采用滑窗或粒子滤波的方式在目标周围提取正负样本来训练分类器,通过分类器输出测试样本的分类结果[20,23,28-30]。2010年Z.Kalal提出的TLD[6]是基于单目标的长时间跟踪算法,该算法包括基于光流法的跟踪器和级联的全局检测器,其将跟踪器和检测器的结果聚类融合作为输出结果。2011年,S.Hare等人提出Struck算法[7],采用结构化输出的SVM分类器在线学习来提供自适应的跟踪,并且通过预算机制防止支持向量无限制的增长。2015年H.Kim提出基于Struck框架的改进算法SWOP [8],其针对样本的特征提取提出了空间有序的块描述子,采用随机重启游走(RWR)[26]的方法计算图像中每个网格块的权重值。2015年C.Ma等人结合相关滤波器和随机蕨分类器提出LCT算法[4],在跟踪目标出现错误的情况下,启动检测模块重新搜索目标。然而,此类方法的主要限制是采用SVM等分类器需要提取大量训练样本和测试样本,训练分类器的迭代过程耗费了大量的运行时间。

为更深入分析ln(crmb)与ln(ix)、ln(ex)的关系,本文进行脉冲响应函数分析,结果如图8所示。

常用的特征有灰度特征、颜色特征、梯度特征、纹理特征等。由于目标与背景在颜色上一般具有明显的差异,在跟踪上颜色特征是必不可少的。本文采用的是有鉴别力的颜色描述子DD[14]

传统的相关滤波器跟踪方法采用固定的学习率更新参数,难以处理复杂的目标形变。同时,由于增加检测和尺度计算模块,造成算法的速度大幅下降。因此,本文算法定义动态的学习率来更新滤波器参数,并且通过跟踪相邻帧目标区域关键点的位移变化,快速估计目标的尺度。同时,为了应对漂移、遮挡等问题带来的跟踪失败情况,运用tracking-by-detection的方法在局部区域搜索目标。对于此类方法而言,分类器是影响跟踪准确度和速度的关键因素,所以本文选取极限学习机用于局部目标检测。

本文提出一个基于相关滤波器的动态更新和尺度自适应跟踪算法,通过准确计算目标尺度和动态更新滤波器的方法帮助跟踪器更好地处理目标跟踪过程中的外观变化。针对跟踪目标出现的漂移、遮挡等现象,采用极限学习机(ELM)作为局部目标搜索的分类器,通过跟踪器的输出结果持续地训练分类器,提升极限学习机处理搜索样本时的分类效果。通过高效的特征提取、快速的尺度计算以及极限学习机的综合运用节省了算法计算量,保证了跟踪器的实时性。

1 相关滤波器

本小节简短的阐述相关滤波器在跟踪上的应用原理。首先,在图像的目标搜索区域提取训练样本x作为滤波器的输入,尺寸为m*n。定义滤波器期望的输出是高斯函数生成的标签y。尺寸同样为m*n

 

(1)

基础跟踪器的作用是根据之前的累积样本信息,预测目标在下一帧的位置和尺度。如第2.1节所示,相关滤波器是用来计算输入样本的响应,响应最大值的位置就是目标新的位置。但是相关滤波器只能得到目标的中心位置,无法应对尺度变化。针对这一问题,DSST等算法[9,3]采用的方法是构建一个尺度滤波器,在目标周围提取尺度从小到大的候选窗口,输出每个窗口的响应,选择响应最大的尺度作为输出结果。这类方法带来的问题是在目标尺寸或者分辨率较大时,提取大量候选尺度窗口导致计算量大,速度较慢。

 

(2)

如图2和图3 所示,本文提出的跟踪算法取得了优秀的表现,在成功率上达到了0.615,精度上达到了0.843。相比作为基准的相关滤波器方法KCF,本文算法在精度上提高了13.9%,在成功率上提高了19.6%。本文算法和DSST跟踪器同样用于解决相关滤波器尺度问题,由于采用高效的特征组合以及精确的尺度计算使本文算法的整体表现更好。和基于tracking-by-detection的典型方法TLD、Struck不同,本文算法主要由基础跟踪器输出结果,只在跟踪失败的情况下启动检测,在准确度和速度上有明显的优势。

(二)制定研究计划,就是按照研究的认识逻辑,根据研究的各种主客观条件,在对选题做出正确评价的基础上,对整个研究过程加以规划。

 

(3)

其中,FF-1表示傅里叶变换和反变换,将矩阵运算转换到频域处理可以提高算法的速度。通过应用核方法,滤波器函数为f(x)=wTx=αk(x,x')。当新的一帧样本输入时,滤波器输出响应y',响应最大值的位置就是目标在下一帧的位置中心:

y'=F-1(F(α) ·F(k))

(4)

以上可以看出,当相关滤波器应用在目标跟踪,只需每帧更新滤波器函数f(x)中的参数α以及样本累积的结果x',通常采用的更新方式如下[10]

x'(t)=(1-lrx'(t-1)+lr×x(t)

(5)

α'(t)=(1-lrα'(t-1)+lr×α(t)

(6)

其中,lr是学习率,反映了滤波器每次更新的尺度。t是当前帧的索引,x'(t)、α'(t)是用于下一帧中滤波器函数f(x)的参数。

2 本文方法

如图1所示,本文算法首先选取高效的特征组合作为目标的外观表示,利用相关滤波器预测目标在下一帧的位置中心,同时通过光流法跟踪的关键点在相邻帧之间的位移变化来计算目标的尺度。根据基础跟踪器输出的目标信息,判断当前目标的跟踪状态。若目标跟踪状态正常,则更新滤波器参数和用于ELM的正负训练样本;若判断跟踪失败,则开始目标搜索,提取局部区域的搜索样本输入ELM分类器。若输出结果有效,则利用搜索结果矫正基础跟踪器的状态;若搜索无结果或结果无效,则继续采用基础跟踪器的结果进行下一帧跟踪。

但真正需要改革的地方还不止于此,亚洲葡萄酒市场的辽阔,同样是中国,但香港和内地一线城市和二三四线城市之间的葡萄酒教育需求都不一致,在调整VIA的教育体系中,Sarah也得有意识地将这些因素考量在内。原有老教程中侧重对各种意大利本土葡萄品种的起源的介绍,新课程里更偏重于讲述意大利品种是如何出现,又如何适应当地环境,并引入了大量地理、历史、文化,特别是餐饮搭配方面的内容。毕竟Sarah当初从耶鲁大学休学半年就是为了跑到意大利学习厨艺,讲起课来更是得心应手。更重要的是,这样的内容调整也得到了VIA的首席科学家Attilio Scienza的支持。

  

图1 本文算法流程图

2.1 目标外观表示

对于目标跟踪而言,特征的选择是影响跟踪器效果好坏的重要因素。而且,特征提取的计算量又会对跟踪器的速度产生很大的影响。

极限学习机(extreme learning machine)是以单隐层前馈神经网络为基础的分类器,其无须通过反向传播来优化神经网络,直接随机生成权重和偏差。相对于SVM分类器,极限学习机的优势是速度极快[15],适合用于处理跟踪问题。2014年Chi等人将ELM和自适应的卡尔曼滤波器结合起来,用于解决滤波器跟踪过程中出现的漂移问题[13]。Wang等人2015年将稀疏表示作为ELM分类器输入样本的特征,降低背景和目标信息之间的干扰,提升了ELM在跟踪中的分类效果[12]。但是,此类方法在面对刚性物体时表现较好,但是对于非刚性物体目标,其复杂的形变会带来ELM分类效果的下降。

DD(x,y)=Map(R(x,y),G(x,y),B(x,y)),

(7)

基于以上背景,本文尝试借助SEC一致性分析范式,选取已推行的7套真题,对具体数学学科知识考题,量化分析数学学科知识题与考试大纲标准的一致性,以期完善国家教师资格考试大纲标准,科学分析已有的试题,推动国家教师资格考试的研究和进展.

2.2 基础跟踪器

其中rc分别是距离中心点的x方向和y方向距离,定义滤波器函数形式为f(x)=wTx,训练过程的目的就是最小化滤波器输出f(x)和期望输出y之间的平方误差,其损失函数如下

本文通过光流法所跟踪关键点之间的位移变化来计算目标的尺度[22,24],其重点在于如何筛选出可靠的关键点。首先,根据已知的目标信息,检测第t-1帧中目标区域的关键点Kt-1,利用光流法跟踪关键点Kt-1,获得其在第t帧中的位置预测点Kt。然后,反过来光流法跟踪预测点Kt,获得其在第t-1帧的位置K't-1。最后计算求出各个关键点的反向误差FB(8),以及以关键点Kt和预测点Kt-1为中心的区域之间的相似度,采用的是互相关系数NCC。一般而言,反向误差FB越小、互相关系数NCC越大的关键点,其可靠性就相对较高。所以,选取满足(9)中条件的关键点,其中τ1τ2分别为阈值:

FB=Kt-1(x,y)-K't-1(x,y)

(8)

FBk<τ1NCCk>τ2

(9)

然后,根据筛选得到的部分可靠关键点,计算其在第t-1帧相互之间的欧氏距离dt-1以及对应的预测点在第t帧相互之间的欧氏距离dt。两者之间的差值d=dt-dt-1反映了两个关键点之间距离在t-1和t帧的变化。距离变化过大的一对点其可靠性相对较低,因此选取相互之间距离变化较小的可靠关键点来计算目标的尺度,其中τ3为阈值,median()为取中值:

目前来看,我国再生资源回收利用主要品种回收率基本低于60%,与发达国家80%以上的回收率相比仍存在较大差距,再生资源产业产值提升空间较大。2017年再生资源回收量实现2.82亿吨,同比增长10.16%,回收总值达到7551亿元,同比增长27.91%,主要原因是国际期货市场钢铁、有色金属等原料价格持续上升,叠加供给侧改革和去产能等政策推动,再生资源回收实现量价齐升。随着再生资源回收增长缓慢趋势的持续改善,行业将逐步走出效益低迷态势。预测后十三五时期,再生资源回收体系制度将逐步完善,市场化程度也将逐步提高,行业有望延续景气度。

第六次:1957年“中华人民共和国粮食部军用粮定额支票”(面粉、大米、粗粮、马料各“伍拾斤”“壹佰斤”“壹仟斤”“伍仟斤”版)。

idx=d>-τ3&& d<τ3

(10)

scale=median(dt(idx)./dt-1(idx))

(11)

但是由于目标运动以及背景的干扰等问题,在光流法跟踪关键点可能会发生偏离的现象,造成计算的尺度过大或者过小。因此需要判断由以上所计算的尺度scale是否可靠,如(12)所示,其中τ4为阈值:

scale>(1-τ4)&& scale<(1+τ4)

(12)

当满足上述条件时,跟踪器就获得了可靠的尺度scale;如果不满足该条件,则维持目标的尺度不变,继续下一帧的跟踪。综上所述,本文算法只需要利用光流法跟踪足够的关键点,目标区域以及图像分辨率的尺寸对解决尺度问题的计算量没有较大影响,保证了算法的实时性。

2.3 动态更新

在2.2小节中,基础跟踪器得到目标的预测状态,包括位置和尺度。在进行下一帧的跟踪之前,相关滤波器需要更新参数αx。传统的相关滤波器更新方式如(5)、(6)所示,反映更新程度的学习率一般是采取固定值。考虑到目标的形变和不同程度的遮挡等因素,学习率需要能够反映目标的变化。所以,本文采用动态的更新方式,将学习率和当前帧的目标样本与累积的正样本库之间的相似度联系起来:

其中τ5为阈值,response是滤波器输出响应,μ是响应的均值,σ是响应的标准差。若目标状态满足(14)的条件,则基础跟踪器继续进行跟踪,同时将其输出的结果作为ELM的训练正样本,以及在当前目标框周围区域提取训练负样本,用于训练ELM分类器。若不满足条件,则判定目标跟踪失败,在局部开始搜索目标。

 

(13)

其中,a是平衡参数,mean()是求平均值,ncc()是计算相似度的互相关系数,data是当前帧的样本特征向量,posdata是累积的正样本库。

其中,R(x,y)、G(x,y)、B(x,y)分别是(x,y)处图像RGB值,Map是将三维RGB特征转换到DD特征空间的映射矩阵,通过将颜色RGB特征映射到高维的空间,获得更好的目标外观表示。在计算特征时,基于RGB空间直接映射的优点是计算量较小。除了颜色特征,本文还采用FHOG特征[27],其包含了丰富的梯度特征和纹理特征信息。最后,将DD,FHOG以及灰度特征级联起来作为跟踪目标的外观表示,不仅可以获得有鉴别力的目标特征信息,还可以使得全局特征提取的速度非常快。

2.4 局部搜索

对于长时间和复杂变化环境下的跟踪而言,跟踪器常常会发生漂移、遮挡、丢失等现象。本文为了能够帮助基础跟踪器稳定的跟踪目标,在对目标状态的判断的基础上在局部搜索目标。

首先是对目标跟踪的状态进行判断,判断依据包括相关滤波器输出响应的尖锐度psr、当前目标样本与ELM训练正样本的最大相似度Pconf以及ELM训练负样本的最大相似度Nconf,目标跟踪状态正常的判断条件如下:

psr>τ5&&Pconf>Nconf

(14)

 

(15)

Pconf=max(ncc(data,elm_posdata))

(16)

Nconf=max(ncc(data,elm_negdata))

(17)

杨力生家门口是一条东西街,他本想往街西头走,因见离他不远的地方有几个乡亲在街北边闲聊,他便转身向东面奔去。不承想,他们两口子的吵闹声早被众乡亲听了个一清二楚,大家看着他匆匆离去的背影,有几个和他交往比较不错的邻居便异口同声地喊起来:

本文算法采用滑窗的方式在搜索区域提取测试样本,将其输入经过训练的ELM分类器。分类器的输出可能有多个候选样本。因此,选取Pconf/Nconf值最大的候选样本作为局部目标搜索的结果。若分类器输出无结果或者所有候选样本的Pconf 值均小于 Nconf 值,则判定在当前帧的搜索目标失败,基础跟踪器继续下一帧的跟踪。

3

在一台普通的PC(windows7系统,Inter i7 CPU,32GB内存)上基于matlab2012b进行本文算法的实验测试。实验中,用于计算目标尺度变化的阈值τ1=0.4,τ2=0.98,τ3=0.5,τ4=0.01。用于判断跟踪目标状态的滤波器响应的尖锐度阈值τ5=5。滤波器动态更新的平衡参数a=45。本文算法采用视频序列第一帧的ground-truth进行算法初始化。

3.1 基于Object Tracking Benchmark的对比实验

实验基于Object Tracking Benchmark(OTB)[11]进行测试,包含了50个被广泛用于测试跟踪算法的视频序列。用于评价跟踪器表现的度量包括精度(precision plot)和成功率(success plot)。精度指中心距离误差(CEL)小于给定阈值的帧数占总帧数的比值,中心距离误差是测试框与真实框(ground -truth)中心点之间的欧氏距离,一个具有代表性的阈值是20个像素。成功率指测试框与真实框之间的重叠率大于给定阈值的帧数占总帧数的比值,通常采用成功率图的曲线下面积(AUC)作为跟踪算法的排名依据。实验中对比的算法包括基于相关滤波器的方法CSK[2]、KCF[5]、DSST[9]和基于tracking-by-detection的方法TLD[6]、Struck[7]

其中,λ是一个正则化项。通常采用核方法将输入样本映射到高维空间来提高滤波器的表现,即k(x,x')=[φ(x),φ(x')],φ(x)表示希尔伯特空间,x'是样本的累积更新的结果,k一般为高斯核。因此根据[31]w可以扩展为输入样本的线性组合w = ∑m,n α(m,n)φ(x),其中α(m,n)是系数。由核正则化最小二乘法(KRLS)[1]可以求得:

另外,为了能从细节上分析算法的优缺点,OTB中提供了11种属性图来对比跟踪器在应对不同挑战时的表现。如图4所示,包括了基于Background Clutter、Out-of-View、In-Plane Rotation、Fast Motion、Motion Blur、Deformation、Occlusion、Scale Variation、Out-of-Plane Rotation九个不同属性的精度图。与其他的跟踪器的对比,本文算法整体表现更加鲁棒和稳定。在Scale Variation属性上,本文所提出的跟踪器略高于DSST算法,达到了0.749。其中,特别是在应对Occlusion、Background Clutter、Deformation、Fast Motion等挑战时,取得了较大的提升,这也证明了本文算法改进的有效性。

古人说“嚼得菜根百事可成”,其实,“喝得稀粥”又何尝不是这样呢?稀粥绵软,入口即化,不与舌头为难,正像做人,要能屈能伸,与人方便,即是与己方便。而这,正切合中国人温柔敦厚的传统秉性。

  

 

图2 基于重叠率的算法对比曲线 图3 基于距离误差的算法对比曲线

  

图4 不同属性的算法对比精度图

3.2 算法成分分析实验

本小节主要讨论算法的各个部分对于算法整体性能的影响,具体包括四个部分:外观表示、尺度计算、动态更新、局部目标搜索。首先,实验比较不同的特征组合对于跟踪器整体性能的影响。本文采用的目标外观表示方法有灰度特征gray、梯度以及纹理特征fhog、颜色特征DD。由表1的实验可以看出,采用单个特征时很难取得较好的表现,其中,基于梯度和纹理特征的fhog表现最好,基于颜色的DD特征表现次之。原始的灰度特征单独使用时效果不好,但是和其他特征组合起来可以发挥一定的作用。

 

表1 不同特征组合的对比实验

  

特征组合精度成功率gray0.4660.352fhog0.7290.528DD0.6190.464gray+fhog0.7490.540gray+DD0.6410.483fhog+DD0.7970.587gray+fhog+DD0.8430.615

 

表2 尺度的对比实验

  

尺度精度成功率No-scale0.7930.565Scale0.8430.615

和其他解决相关滤波器尺度问题的方法不同,本文通过严格筛选光流法跟踪的关键点,根据可靠关键点之间的位移变化来计算目标尺度。通过表2可知,尺度计算的部分对于跟踪器的整体性能有很大的帮助,其中精度从0.793提高到0.843,成功率从0.565提高到0.615。对于目标尺度的正确计算有利于获得精确的目标状态信息来更新滤波器和分类器。

传统的相关滤波器采用固定的学习率更新滤波器参数,本文算法中,学习率选择固定值lr=0.02取得最好的结果。如表3所示,相对于学习率取0.02,动态的更新方式在精度和成功率上都有所提高。由表4可以看出,采用局部搜索目标的方法帮助基础跟踪器应对漂移、遮挡等问题,对跟踪器的整体性能也有一定的提升。

 

表3 动态更新的对比实验

  

学习率精度成功率固定值:0.020.8210.603动态值0.8430.615

 

表4 局部搜索的对比实验

  

ELM局部搜索精度成功率无0.8270.598有0.8430.615

综上所述,通过算法四个部分的分析对比实验证明了本文算法的有效性。同时,可以看出,特征的选择以及目标的尺度估计对于跟踪器的整体表现有着较大的影响。

3.3 定性评价(Qualitative evaluation)

如图5所示,实验对比了本文算法和TLD[6]、Struck[7]、KCF[5]、DSST[9]、CSK[2]在具有代表性的视频库上的跟踪结果,这些视频中有遮挡、变形以及复杂变化背景等挑战。在basketball库中,在运动过程中球员被部分遮挡,并且有较大的外观变化。相关滤波器的算法CSK、DSST、KCF都可以正常跟踪,而基于tracking-by-detection方法的TLD和Struck跟踪器则出现了跟踪错误情况。在soccer库中的复杂变化的背景下,本文算法表现稳定,其他算法则都出现了不同程度的漂移现象。在tiger2和jogging-2库中,本文算法依靠动态的更新滤波器以及跟踪失败后的局部搜索,可以很好的处理目标运动过程中出现的严重遮挡和短暂丢失等问题。

本文对一摩天轮结构建立有限元模型,进行结构模态分析,提取前10阶的频率和振型,得出摩天轮桁架结构的动力特性;在不同方向地震作用下,采用振型分解响应谱法计算结构的地震响应[3],验算摩天轮结构在地震载荷作用下是否满足抗震要求。

3.4 速度分析

本文算法在OTB上实验测试51个数据集的平均速度达到了50fps。对于目标跟踪而言,特征提取和分类器是影响算法运行速度的主要因素。相关滤波器在跟踪上具有高速的特点,因此,本文算法以相关滤波器为基础,并且通过快速的尺度估计来解决尺度问题。在特征提取方面,只需对相关滤波器的输入样本计算全局特征。本文所采取的特征组合gray+Fhog+DD 计算量较小。在基于tracking-by-detection的局部目标搜索步骤中,ELM的优势在于可以快速完成分类器的训练和测试。通过以上的改进,提高了本文算法的准确度,同时也保证了算法的实时性。

4

本文提出一个基于相关滤波器的尺度自适应和动态更新跟踪算法,应对跟踪过程中目标的尺度和外观变化。同时,为了解决目标漂移、遮挡问题,本文算法运用tracking-by-detection的方法在局部区域搜索目标,采取极限学习机作为处理搜索样本的分类器。最后通过成分分析实验,总结了每个部分对于跟踪器结果的影响,验证了算法的有效性。在标准测试库上的对比实验结果展示了本文算法的优秀表现。

  

图5 在具有挑战性视频库上的跟踪器对比结果

参考文献:

[1] Rifkin R, Yeo G, Poggio T. Regularized Least-squares Classification[J]. Nato Science Series Sub Series III Computer and Systems Sciences, 2003, 190: 131-154.

[2] Henriques J F, Caseiro R, Martins P, et al. Exploiting the Circulant Structure of Tracking-by-detection with Kernels[M]//Computer Vision-ECCV 2012. Springer Berlin Heidelberg, 2012: 702-715.

[3] Li Y, Zhu J. A Scale Adaptive Kernel Correlation Filter Tracker with Feature Integration[M].Computer Vision - ECCV 2014 Workshops. Springer International Publishing, 2014:254-265.

[4] Ma C, Yang X, Zhang C, et al. Long-term Correlation Tracking[C]// Computer Vision and Pattern Recognition (CVPR), 2015 IEEE Conference on. IEEE, 2015:5388-5396.

[5] Henriques J F, Caseiro R, Martins P, et al. High-Speed Tracking with Kernelized Correlation Filters[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2015, 37(3):583-596.

[6] Zdenek K, Krystian M, Jiri M. Tracking-Learning-Detection.[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2012, 34(7):1409-22.

[7] Hare S, Saffari A, Torr P H S. Struck: Structured output tracking with kernels[C]// Computer Vision (ICCV), 2011 IEEE International Conference on. IEEE, 2011: 263-270.

[8] Kim H U, Lee D Y, Sim J Y, et al. SOWP: Spatially Ordered and Weighted Patch Descriptor for Visual Tracking[C]//Proceedings of the IEEE International Conference on Computer Vision. 2015: 3011-3019.

[9] Danelljan M, Häger G, Khan F, et al. Accurate Scale Estimation for Robust Visual Tracking[J]. Center for Medical Image Science & Visualization, 2015.

[10] Bolme D S, Beveridge J R , Draper B A , et al. Visual Object Tracking Using Adaptive Correlation Filters[C]// IEEE Conference on Computer Vision & Pattern Recognition. 2010:2544-2550.

[11] Wu Y, Lim J, Yang M H. Online Object Tracking: A Benchmark[C]// IEEE Conference on Computer Vision & Pattern Recognition. 2013:2411-2418.

[12] Wang B, Tang L, Yang J, et al. Visual Tracking Based on Extreme Learning Machine and Sparse Representation.[J]. Sensors, 2015, 15(10):26877-26905.

[13] Chi J N, Qian C, Zhang P, et al. A Novel ELM Based Adaptive Kalman Filter Tracking Algorithm[J]. Neurocomputing, 2014, 128(5):42-49.

[14] Khan R, Weijer J V D, Khan F S, et al. Discriminative Color Descriptors[C]// Cvpr, IEEE Computer Society Conference on Computer Vision and Pattern Recognition. IEEE Computer Society Conference on Computer Vision and Pattern Recognition. 2013:2866 - 2873.

[15] Huang G B,Zhu Q Y, Siew Chee-Kheong . Extreme learning machine: a new learning scheme of feedforward neural networks.Neural Networks, 2004. Proceedings. 2004 IEEE International Joint Conference on. Vol. 2. IEEE, 2004.

[16] Hong Z, Chen Z, Wang C, et al. MUlti-Store Tracker (MUSTer): a Cognitive Psychology Inspired Approach to Object Tracking[C].Computer Vision and Pattern Recognition (CVPR), 2015 IEEE Conference on. IEEE, 2015.

[17] Li Y, Zhu J, Hoi S C H. Reliable Patch Trackers: Robust Visual Tracking by Exploiting Reliable Patches[C]// 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE Computer Society, 2015:353-361.

[18] Liu T, Wang G, Yang Q. Real-time Part-based Visual Tracking via Adaptive Correlation Filters[C]// Computer Vision and Pattern Recognition. IEEE, 2015:4902-4912.

[19] M. Tang, J. Feng. Multi-kernel Correlation Filter for Visual Tracking[C]// IEEE International Conference on Computer Vision. IEEE, 2015.

[20] Wang N, Shi J, Yeung D Y, et al. Understanding and Diagnosing Visual Tracking Systems[C]// IEEE International Conference on Computer Vision. IEEE, 2015.

[21] Danelljan M, Khan F S, Felsberg M, et al. Adaptive Color Attributes for Real-Time Visual T racking[C]// Computer Vision and Pattern Recognition (CVPR), 2014 IEEE Conference on. IEEE, 2014:1090-1097.

[22] Baker S, Matthews I. Lucas-Kanade 20 Years On: A Unifying Framework[J]. International Journal of Computer Vision, 2004, 56(3):221-255.

[23] Zhang J, Ma S, Sclaroff S. Meem: Robust Tracking via Multiple Experts Using Entropy Minimization[M]//Computer Vision-ECCV 2014. Springer International Publishing, 2014: 188-203.

[24] Kalal Z, Mikolajczyk K, Matas J. Forward-backward error: Automatic detection of tracking failures[C]//Pattern Recognition (ICPR), 2010 20th International Conference on. IEEE, 2010: 2756-2759.

[25] Blaschko M B, Lampert C H. Learning to Localize Objects with Structured Output Regression[M]//Computer Vision-ECCV 2008. Springer Berlin Heidelberg, 2008: 2-15.

[26] Pan J Y, Yang H J, Faloutsos C, et al. Automatic Multimedia Cross-modal Correlation Discovery[C]//Proceedings of the Tenth ACM SIGKDD International Conference on Knowledge Discovery and Data Mining. ACM, 2004: 653-658.

[27] Felzenszwalb P F, Girshick R B, David M A, et al. Object Detection with Discriminatively Trained Part-based Models[J].Pattern Analysis & Machine Intelligence IEEE Transactions on, 2010, 32(9):1627-1645.

[28] N. Wang, D.-Y. Yeung. Learning a Deep Compact Image Representation for Visual Tracking[J]. Advances in Neural Information Processing Systems, 2013:809-817.

[29] Shai A. Support Vector Tracking[J]. IEEE Transactions on Pattern Analysis & Machine Intelligence, 2004, 26(8):1064-72.

[30] Avidan S. Ensemble Tracking[C]// IEEE Computer Society Conference on Computer Vision & Pattern Recognition. IEEE Computer Society, 2005:261-271.

[31] Schölkopf B, Smola A. Learning With Kernels: Support Vector Machines, Regularization, Optimization, and Beyond[J]. Journal of the American Statistical Association, 2005, 16(3):781-781.

 
孙茜,姚保琛
《合肥学院学报(综合版)》2018年第02期文献

服务严谨可靠 7×14小时在线支持 支持宝特邀商家 不满意退款

本站非杂志社官网,上千家国家级期刊、省级期刊、北大核心、南大核心、专业的职称论文发表网站。
职称论文发表、杂志论文发表、期刊征稿、期刊投稿,论文发表指导正规机构。是您首选最可靠,最快速的期刊论文发表网站。
免责声明:本网站部分资源、信息来源于网络,完全免费共享,仅供学习和研究使用,版权和著作权归原作者所有
如有不愿意被转载的情况,请通知我们删除已转载的信息 粤ICP备2023046998号