更全的杂志信息网

基于外轮廓模糊处理的多尺度目标检测

更新时间:2009-03-28

目前显著目标检测方法可分为两类:基于自下而上模型的方法和基于自上而下模型的方法。基于自上而下模型的方法是任务驱动型的,通常为具有高级信息的监督学习[1-2];而基于自下而上模型的方法,视觉显著性通常为低层信息,如颜色、梯度、边缘、边界等视觉信息,如文献[3-4]中利用颜色和亮度特征实现显著目标检测,实现简单,计算效率高,但在光照变化剧烈、存在遮挡等情况下结果不是很理想。文献[5]中提出上下文感知显著性检测,目的是根据上下文的语义信息检测代表整个场景的图像区域,这种方法需要大量的图像标注。文献[6]是一种自下而上的视觉显著性模型,先形成对梯度边缘特征通道的激活映射,然后用某种方式对其进行归一化以突出显著性,允许与其他映射的组合。文献[7]的模型独立于对象的特征、类别或其他形式的先验知识。通过对输入图像的对数谱分析,提取图像在光谱域中的光谱残差,提出了一种快速构造空间对应显著图的方法,然而光谱残差不易获得。文献[8]提出的基于区域直方图(RH)的自然图像显著性检测计算模型通过对原始图像进行自适应颜色量化来构造全局直方图,并根据全局直方图和整个图像的颜色分布的色差分别进行评估,全局直方图计算复杂度较高。文献[9]的显著性滤波计算了形状和大小两种度量对比度来评价这些元素的唯一性和空间分布。文献[10-11]利用自然图像的边界和连通先验,为目标检测提供更多思路。文献[12-13]用中层视觉信息的显著性检测,也就是图像的超像素,结合了多尺度图像处理方案,然而利用超像素信息的同时容易忽略掉像素级别的微小信息。相比较于自上而下的模型,自下而上的模型具有无任务的性质和较高的计算速度,因此,本文研究基于自下而上模型的显著目标检测。

显著目标检测过程中假设图像区域多数为背景,且假设背景区域均匀连通,则背景像素间彼此连接。文献[14]利用线性基设计六角形处理算子,实现目标间距离的度量。文献[15]利用最小障碍法度量目标间的距离。本文采用文献[16-17]的最小生成树方法度量目标间的距离。

受格式塔原则启发,本文关注包括独特性、唯一性、轮廓在内的显著目标视觉线索。文献[18]将纹理的稀疏性作为显著目标的视觉特性,文献[19]在PCA坐标中利用L1范数提高图像清晰度,及在CIE-LAB色彩空间利用L2范数增强颜色清晰度,文献[20]利用多级连接扩展测地线方法构建显著模型,文献[21]提出基于外轮廓多尺度模型的显著目标检测方法。然而,基于颜色清晰度和特征唯一性的方法在背景混乱时无法得到理想的显著目标检测结果。

为解决上述问题,很多学者尝试从人类视觉系统感知机理理解显著目标检测过程:(1)当背景边界处的轮廓置信度为零,或不同区域间的特征对比度较低时,背景区域具有微弱的轮廓;(2)当不同区域邻接处存在突变的特征时,此时的背景区域具有明显的轮廓;(3)轮廓越强,该区域越显著。

在获取显著目标轮廓的基础上,对外轮廓进行处理将有助于提高显著目标识别的准确性。最近,已有文献涉及了基于模糊逻辑的背景检测方法[22-23]。文献[24]利用模糊链接颜色直方图方法,实现平均正确率为98.25%的视频分割。文献[25]利用模糊颜色直方图方法,实现平均正确率为97.72%的背景提取。

基于上述观察,本文提出基于最小生成树的显著目标检测方法。本文首先利用简单线性迭代聚类法对图像进行超像素分割,计算每个超像素到图像边界的权重距离并生成最小树,从而获得显著目标的初步检测结果;然后,通过快速轮廓检测法提取显著目标的外轮廓信息;最后,利用模糊色差直方图对非固定外轮廓进行模糊处理以生成显著图,并以此得到显著目标的准确检测结果。实验结果证明,本文所提显著目标检测方法性能优于现有方法;同时,本文所提方法单线程处理像素为300×400的图像,仅需24.6 ms,这为实时定向应用提供了理想的选择。

核电站从设计、制造、土建、安装、调试到运营,各个环节应是有机的统一体[3],经验总结和反馈机制应在核电站全寿期内实施。开展好核电工程项目建设经验反馈工作,对于促进核安全文化水平提升、进一步提高核电工程项目建造质量有重要作用。本文参考运营核电厂经验反馈管理标准,结合核电工程建设项目实践,总结提出核电工程建设项目经验反馈的良好实践,以期为核电工程建设项目经验反馈体系构建和工作实施提供借鉴和参考。

1 基于最小生成树的显著目标检测

本节将详细描述本文所提的显著目标检测方法。在上一节给出距离变换的基础上,本节将引入另一个简单实用的基于外观相似性的度量,以补充边界连通性检测的不足;然后,将进一步利用最小生成树平滑;最后,描述基于模糊色差直方图的多尺度目标检测。图1给出本文所提显著目标检测的框架。

“王九,我说,你瞧,大爷大姑娘不来,先生可来了。好,咱们动手,先生不会走的。你小心别让赵四小子扔倒。先生帮咱们绷个场面,看你摔赵四这小子,先生准不走。”

  

图1 基于最小生成树的显著性检测框架

1.1 基于超像素的特征提取

基于超像素的方法不仅有利于准确提取显著目标所在区域,且能提高显著目标检测精度。本文采用文献[26]中的简单线性迭代聚类方法,实现超像素的快速分割,并提取包括位置、颜色、纹理等在内的122维特征。

系统用户定位为教师和学生。其中,为教师提供课程管理、班级管理、课程资源管理、课程习题管理、试卷管理、学生答题数据统计、在线交互和教师信息维护等功能;为学生提供个人信息维护、查看课程信息、移动学习、移动练习、移动模考、查看统计信息、在线交互等功能。系统用例图见图1。

1.2 最小生成树算法简介

图G=(V,E)的最小生成树问题可视为寻找具有最小总边权生成树的问题。对具有N个超像素的图像I而言,E为连接图像节点V及其四邻接像素的边。在普里姆算法中,通过在每一步连接过程中添加跳变的方式构建最小生成树。相邻超像素p和q间的基于最大色差的边权值:

从认知视角来揭示人体词语义转移的本质,可以为语义学的研究提供新的视角;研究结果可以为其他领域的词汇认知研究提供参考。语义的构建机制也能够为大学英语词汇教学及语篇教学提供新的思路。

 

最小树构造过程中,如两相邻超像素间的梯度超过一定阈值,则将此相邻超像素间的边连接去除;如两超像素的外观相似,则它们间的距离将较短,且边的权重较大。基于文献[27]的Prim算法,文献[16]提出基于线性时间的树构造方法。

1.3 基于最小生成树的显著目标初步检测

距离变换的目的是计算种子节点S的距离映射Ω。ζ={ζ(0),ζ(1),…,ζ(k)}表示图像 I的路径,且ζ(i)和ζ(i+1)为图像 I上的相邻节点。对于给定的距离矩阵节点p的距离变换公式如下:

 

其中,∏S,p表示连接p和S所有路径的集合。通常,节点p和q间的距离度量具有以下属性:

 

本文利用文献[16]中的空间距离度量最小生成树中相邻节点p和q间的距离:

 

本文利用最小生成树寻找最短路径,该过程包括两个遍历:自下向上遍历和自上向下遍历。图2给出基于空间距离的相邻节点间距离的示意图。对于给定的一组种子节点S,其初始距离为0,其它节点初始距离为∞,如图 2(a)所示。图 2(b)和图2(c)分别为自下向上遍历与自上向下遍历的示例。

  

图2 本文所提两次通过距离变换算法的简单说明

由于颜色的多样性,显著目标总是聚集成两个或更多个类别。因此,很难依据一个聚类生成一个显著目标或显著目标的一部分均匀区域。为处理该问题,本文提出一种合并具有接近空间距离或类似颜色的颜色分量的简单方法。

 

其中,p表示υ的父节点表示将υ连接到其最近种子节点的最佳路径p表示υ到达其父点p的最佳路径。由于最近的种子节点p可来自其底部或其顶部,式(5)提供可能的从底部测试的解决方案。如果p存在多个子节点,式(5)将针对每个子节点进行评估,且保留最小距离的子节点。图2(b)为根节点的一个示例。简而言之,在每个子节点中以广度优先搜索顺序进行更新,自下向上遍历至所有根节点。

从根节点开始,自上而下遍历经历类似过程。对于每个根节点,基于式(6)访问其子节点并更新距离:

 

式(6)提供可能的从顶部测试的解决方案,且可从其它分支传播潜在的更好的解决方案。如图2(c)所示,在自下而上遍历过程后,许多子节点与根节点间的距离仍是∞。到达某一子节点的最近根节点可能位于顶部或在从其上方的节点分离的分支处。

依据本文的自下而上遍历的最小生成树算法,可以得到图3(a)的初步目标检测结果,如图3(c)所示。

  

图3 基于最小生成树的初步检测结果

2 基于模糊直方图的显著目标优化检测

2.1 显著目标区域检测

当背景区域为孤立区域或显著目标处于图像边缘时,单一的距离图有时并不能产生满意的检测结果。为补充距离变换的缺陷,本文引入另一个辅助图,通过逐点色彩相似性计算,提高显著性检测的准确性。

本文利用轮廓区域级实现显著目标检测。在每个尺度上,将输入图像分解成若干区域;然后,对每个区域进行形态学运算,生成外观相似的区域,并计算每个区域的轮廓;最后,将最大的轮廓用于度量每个像素的显著性。

与基于区域的显著目标检测方法不同,本文考虑感知均匀区域:一方面,均匀区域保留有利于计算区域的轮廓信息;另一方面,它强制外观相似的像素保持相似的显著性。为将输入图像I分解为均匀的感知元素,本文采用文献[28]提出的软图像抽象法。首先,在RGB颜色通道中,将每个颜色通道划分为12个均匀区间,且选择占据95%的最频繁出现的颜色;然后,使用高斯混合模型将这些颜色聚类到M个中心,将服从高斯分布的像素聚类,且聚类中心 C={ρ1,ρ2,…,ρL}及长度为 L的像素 x的概率px=[px,1,px,2,…,px,L];最后,输入图像 I可分解为L个分量:

为加强施工现场管理,江苏省出台了《江苏省重点水利工程建设管理规定》,按照规定要求,重点水利工程建设必须实行项目法人责任制、招标投标制、建设监理制、合同管理制和竣工验收制。在建设运行管理过程中,实现集中管理和分级管理相结合的体制。在现场施工管理工作中,全面落实现场管理的各项制度,抓好现场运行管理,保证工程建设有序地开展。

 

其中,Bm是布尔映射。如果图像I中像素x的量化颜色以最大概率服从第l个高斯分布,则Bm(x)=1,也即

为将孤立的像素聚类,本文采用核宽度w0扩大每个布尔映射Bm,同时保持每个类别形状,并填充扩张的小孔。为保持每个均匀区域的轮廓,将内核宽度为w0的侵蚀算子同时填充布尔图,得到处理后的布尔图

自下而上遍历过程是从叶节点开始的,用式(5)可更新其与父节点间的距离:

输入高为h、宽为w的图像I;

 

将前两个权重最大的主要分量分别表示为φm1和φm2(φm1≥φm2)。如果 φm1≤0.8,则将两个布尔图Bm1和Bm2合并成一个新的布尔图 B new=Bm1∪Bm2;同时,检查两种颜色 ρm1和 ρm2的颜色距离[30],若它们间的对比度较小,则将这两个分量合并为新的分量映射B new=Bm1∪Bm2。对每个新的分量映射,执行相同的形态运算生成新的布尔映射,并依次添加到布尔映射集B′。算法1总结了生成均匀区域的完整算法。

算法1 均匀区域生成 B′=同质区域(I,C,

输入:

天野之弥表示:“我们对2050年核电装机容量在低值预测情景中的下降趋势表明,如果在充分发挥核电潜力方面没有取得重大进展,全球将很难获得足够的能源来实现可持续发展和缓解气候变化。”

两个颜色分量是否为邻域,取决于该颜色分量所在的像素是否相邻:如两个相邻超像素由两个主色成分组成,则这两个主色成分是相邻的。基于此理论,文献[29]利用过分割方法存储区域的轮廓信息,并将图像 I的超像素表示为 Q={q1,q2,…,qL},且相邻超像素qi和qj间的权重为:

6.B′l=MORPHOLOGY(Bl,w0);

概率矩阵为{pi=[pi,1,pi,2,…,pi,L]}h×w i=1;

色彩聚类中心 C={ρ1,ρ2,…,ρL};

输出:

同质区域映射集B′;

1.B′={},B={};

其中,r0是区域r的轮廓是轮廓r0的长度,E(x)是像素x的轮廓置信度。

3.Bl=zeros(h,w);

4.如果像素x的量化颜色服从概率最大的类高斯分量,则设置Bl(x)=1;

5.将Bl添加到B集合中;

添枝加叶,即在句子主干前、后添加适当的词语进行修饰,使句子表达更加具体、生动、形象,有效促进学生对语言文字的内化及拓展。如《去年的树》一课中,鸟儿找不到树,于是与树根、大门和小女孩进行对话。教师让学生想象,当时鸟儿是带着怎样的心情与它们对话的?学生说出惊诧不已、不可思议、焦急不安、悲痛万分等词语。随后,教师让学生把这些词语一一写在书本上,再把词语放入文本内反复朗读,读出不同的语气。通过给句子添枝加叶,给文本再加工,有效促进学生对语言文字的内化及拓展。

3、选取合适的场地。课件素材制作和获取现场,应当宽敞明亮,这便于拍出清晰的照片,也有利于摄录时电脑、投影仪、机具、工量具等的布置,也便于讲课人的活动和拍摄取景站位。

7.将 B′l添加到 B′集合中;

尽管如此,尽管没有十全十美的翻译策略,我们也绝不能认为文化缺省是不可译的,作为一种特殊的文化现象,它有其独特的魅力,并且与接受理论中的一些观点诸如“不定点”等不期而合,极大地丰富了一部作品,使其更加鲜活灵动,所以研究如何对其进行合理且接受度高的翻译是非常有必要并且是对翻译工作有很大的指导意义的。

8.end for

9.将图像 I过分割为 N个超像素 Q={q1,q2,…,qN};

10.for每一个超像素qi和qj do

11.基于式(11)计算 φ;

12.得到权重最大的前两个成员φm1和φm2

13.ifφm1≤0.8 then

14.B new=Bm1∪Bm2

15.B′new=MORPHOLOGY(B new,w0);

16.将 B′new添加到 B′集合中;

在这个科技发达的时代,许多新的设施已经投入到电网的使用中去。大城市的整个电力系统已经焕然一新,这些设施的使用也很好的经济的控制了供电方面的浪费。所以,尽最大可能改善农村配网的设施可以有效发展农村电力问题,还可以为农村节省一笔不必要的浪费。

17.end if

18.end for

19.c max为C中最大的色彩对比度;

8.for每一个邻接区域 r∈B′i do

21.if‖ρm1-ρm22<0.5·c max then

22.B new=Bm1∪Bm2

23.B′new=MORPHOLOGY(B new,w0);

24.add B′new into B′;

3)调控中心是独立的第三方平台,增强供需互信。供需双方容易陷入“信任危机”,这是普遍存在的问题,国家油气调控中心以“公正公平”的行业管理者身份,为供需双方提供“信任担保”。

25.end if

26.end for

2.2 显著目标轮廓检测

由文献[31]可知,显著目标的包围性可通过布尔映射表示:如某一区域被其它区域完全包围,则该区域的包围度为1;如某一区域位于图像边缘,则该区域的包围性为0。基于背景区域一般具有较为明显轮廓的观察,本文利用轮廓的平均置信度度量区域的包围程度。具体而言,利用文献[29]提出的快速轮廓检测法产生轮廓置信图E;然后,利用下式计算布尔映射B中每个连接区域r的轮廓信息:

其中系数krai和krbi的求解也可根据经济化的逼近多项式算法[13],通过Tchebyshev多项式直接得到.

 

2.for l=1:L do

为进一步抑制图像边缘区域的包围度,对式(9)添加惩罚因子:

 

其中,I border是图像边缘像素。如某一区域轮廓位于图像边缘越多,则惩罚项越大;如该区域远离图像边缘,则惩罚项为零。因此,像素x的显著性通过式(11)计算:

 

算法2总结了显著性检测的主要过程。

社会主义核心价值观的培育和践行要求渗透到学校工作的方方面面,细化雅行教育的目标即是其中的一项。要求各班充分利用班会、班级黑板报、手抄报、多媒体平台等开展宣传,要求学生熟知雅言、雅行、雅思、雅量、雅趣、雅致六个方面的相关内容,引导学生结合《雅行小手册》的相关要求,从文明礼仪、言谈举止、生活自理、仪表着装和卫生习惯等几方面制定个人雅行规范和雅行标准,从而让学生的行为有的放矢。

算法2 基于轮廓信息的显著目标检测

输入:图像I;

输出:显著图Ss

1.在RGB颜色空间进行颜色量化,产生N个颜色;

2.利用混合高斯模型,以 C={ρ1,ρ2,…,ρL}为中心将色彩量化聚为M个类,且取得概率矩阵{pi=[pi,1,pi,2,…,pi,L]}h×w i=1;

3.B′=HomogeneousRegion(I,C,{pi}h×w i=1);

4.用文献[29]所述方法,在图像I中提取边缘概率映射;

5.E=DILATION(E,w1);

6.for每一个 B′i∈B′do

7.si=zeros(h,w)

20.for每两个色彩中心ρi和ρj do

9.利用式(9)计算一般区域r的轮廓包围度;

10.利用式(10)计算边缘区域r的轮廓包围度;

11.end for

12.end for

13.利用式(11)计算目标的显著性Ss

2.3 显著目标轮廓模糊处理

在2.2小节可以得到目标的外轮廓区域,如图3(c)所示,然而差异较大的背景区域如图3(a)中的黄色区域,容易被误判为目标区域。经过本节模糊色差直方图处理,可得到准确目标区域。

图像色彩强度 I(u,v,ch)表示第ch个色彩信道的强度以(u,v)为中心,I(p,q,ch)表示相邻像素(p,q)间的强度。

量化为 W级 I∈{0,1,…,W-1},其中(u,v)为坐标,ch为色彩信道。

(1)色彩直方图:hg(i,j,k)表示像素位于以坐标(u,v)为中心、面积为M×M区域的可能性:

 

(2)色差直方图:用于捕捉两个像素的均匀色差,局部相邻区域R×R内的色差表示为:

 

利用高斯函数对色差d模糊处理:

 

生成局部区域R×R的色差直方图:

 

利用模糊C均值聚类和色差直方图形成模糊色差直方图。利用模糊C均值,将N个局部直方图X={x1,x2,…,xN}聚为 c个以 υi为中心的类别:

 

模糊色差直方图h包含维度为c×N的成员矩阵γ和N×1维的色差向量H:

 

为减少和消除由于图像噪声或图像压缩导致的映射噪声,本文利用前面构建的最小生成树进行映射平滑。

2.4 多尺度的显著目标检测

对于大小固定的行人,传统方法多使用单个分类器,且依赖于在多个尺度上图像特征的重新计算或近似。为检测不同尺度的行人,文献[32]提出计算原始尺度的过滤通道,并在不同尺度下使用1.07的比例因子滑动窗口。

本文利用网格方式,从过滤通道提取分类特征。网格方式适应于不同大小的检测窗口,这样,对于不同尺寸的行人,使用不同的网格间隔获得相同数量的分类特征。训练过程中,分类器仅利用行人原始尺度下的分类特征。

本文采用自适应方法调整滑动窗口尺寸,即滑动窗口的宽度为水平窗口宽度的1/16,高度为垂直窗口高度的1/16。通过将滑动窗口中心调节至图像的140行与300行之间,将搜索空间减小35%。文献[33]实验结果显示,该处理适用于Caltech数据库中超过99%的行人检测。

滤波的信道特征不是尺度不变的,并且不同尺度的行人具有不同的表示。行人对于不同的照明、方向或遮挡情况也具有显著不同的表示,并且由数千个弱学习者组成的单个增强分类器仍然能够提供一致的结果。由实验结果可知,一个强大的增强分类器结合一个大型训练数据集,可以表示不同类型的行人。

3 实验结果与分析

本文在两个数据集上评估所提方法的性能。第一个数据集是包含1 000幅图像的MSRA-1000[3],第二个数据集是包含1 000幅图像的 ECSSD[34]。来自这两个数据集图像的背景均比较复杂。

性能对比实验中,涉及到14个经典或最新提出的显著目标检测算法。它们分别是文献[3]提出的基于频率调整方法(Frequency-Tuned,FT),文献[4]提出的基于全局对比度方法(Global Contrast,GC),文献[5]提出的基于上下文相关性方法(Context-A-ware,CA),文献[6]提出的基于图模型方法(Graph-Based,GB),文献[7]提出的基于谱残差方法(Spectral Residual,SR),文献[9]提出的基于显著性滤波方法(Saliency Filters,SF),文献[11]提出的基于背景先验知识方法(Background Priors,BR),文献[12]提出的基于视觉注意方法(Visual Attention,VA),文献[19]提出的基于主成分方法(Principal Component Analysis,PCA),文献[28]提出的基于软图像摘要方法(Soft Image Abstraction,SIA),文献[31]提出的基于二值映射方法(Boolean Map,BM),文献[35]提出的基于时空索引方法(Spatio-Temporal Cues,STC),文献[36]提出的基于聚类的方法(Cluster-Based,CS),和文献[37]提出的基于独特性、重点性、目标性 方 法 (Uniqueness,Focusness and Objectness-Based,UFO)。

本实验仿真硬件环境为Visual Studio2015+OpenCV联合使用,在Windows7,64位操作系统下运行。处理器为酷睿i7 6700 4 GHz,并且配备影驰GTX1080 GPU加速模块。

3.1 性能评估

首先,本文使用精度-回召(Precision-Recall,PR)曲线指标评价不同方法的系统性能,且将显著性量化为0到255区间的二值图;然后,计算那些被正确检测的显著超像素的精度,及那些被正确检测的显著超像素的回召率,绘制P-R曲线。图4显示了不同方法在数据集MSRA-1000的P-R曲线和ECSSD的P-R曲线。由图4可以看出,部分方法的性能较好,同时也可以看到本文所提方法在两个数据集上的性能最好。

  

图4 不同方法在不同数据集的P-R曲线

将显著性量化为0到255区间的二值图来计算精度和召回,并将二值图与真实标记图进行比较。通常,除精度和召回这两个重要性能指标外,F-measure也是一个重要的性能评价指标:

 

本次实验中设置β2=0.3。图5显示了不同方法在MSRA-1000数据集和ECSSD数据集上的精度(Precision)指标、回召(Recall)指标及 F度量(FMeasure)指标。

  

图5 不同方法在不同数据集的精度、回召及F度量指标

由图5所示结果可以看出,没有一种方法的三个性能指标全部优于其它方法。然而,由图5仍可得到以下结论:本文所提方法在所有阈值上能得到与最新方法相当的实验结果。

因为精确度和回召度这两个性能指标都不考虑负显著性超像素的检测结果,所以将平均绝对误差(Mean Absolute Error,MAE)评价指标用于度量正确检测的显著性超像素M和真实的显著性超像素GT间的平均差:

 

图6给出不同方法在MSRA-1000数据集和ECSSD数据集上的平均绝对误差(MAE)评价指标结果。由图6所示结果可以看出,在所有方法中,本文所提方法的平均绝对误差最低。

  

图6 不同方法在不同数据集的平均绝对误差

从上述三组对比实验的性能评价指标可以看出,本文所提方法无论在精确度、回召度、F度量,还是在平均绝对误差上,都具有一定的优势。图7给出MSRA-1000数据集和ECSSD数据集上显著目标检测的部分示例。由图7所示结果可以看出,本文所提方法能够实现复杂背景或多重纹理化背景下的显著目标检测。

  

图7 不同方法下显著目标检测的示例

3.2 处理时间评估

基于频率调整的方法(FT),RC,基于全局对比度的方法(GC)及本文所提方法均用C语言编程实现,其余方法结合MATLAB和C语言编程实现。对于那些使用文献[38]提供的超像素分割作为预处理的方法,均保持其默认设置。图8给出不同方法处理像素为300×400图像的运算时间。

  

图8 不同方法处理像素为300×400图像的运算时间

由图8可以看出,本文所提方法的运算时间(24.6 ms)虽然不是最快,但也属于可接受范围,这是由于本文提出的最小生成树构造、树过滤、距离变换都具有像素数量的复杂性。具体而言,使用文献[27]的Prim算法构造最小生成树需要5.86 ms,单通道图像滤波需要1.12 ms,单通道最小地势距离变换需要1.75 ms。由于低复杂性,本文所提的基于最小生成树的距离变换以及其它基于最小生成树的算法为具有速度要求的应用提供了可能。

4 结束语

与Dijkstra类算法在图像查找最短路径不同,本文提出的基于最小生成树的距离变换方法查找树路径上的最短距离。最小生成树结构大大减少了最短路径的搜索空间,这是因为基于最小生成树的距离变换对于每个像素使用测地距离或屏障距离(总体复杂性在像素数量上呈线性),具有恒定的复杂性。与以前提出的线性时间最小生成树结构及树过滤不同,基于最小生成树算法系列使得有实时需求的应用成为可能。

在背景减除中使用色差直方图,大为减少了由于光照变化、背景变化、前景与背景间存在相似特性等情况下错分的像素数量。此外,针对背景初始化时,前景目标不在视频区域的情况,本文采用不同的学习速率更新前景像素或背景像素。从仿真实验可以看出,本文所提算法在移动物体检测中表现出相当大的改进,因此它将在诸如工业自动化、交通监控、公共安全、视频监视等应用中发挥重要作用。

参考文献:

[1]YANG J,YANGM.Top-down visual saliency via joint CRF and dictionary learning[C]∥IEEEConference on Computer Vision and Pattern Recognition.2012:2296-2303.

[2] GAO D,HAN S,VASCONCELOS N.Discriminant saliency,the detection of suspicious coincidences,and applications to visual recognition[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2009,31(6):989-1005.

[3]ACHANTA R,HEMAMIS,ESTRADA F.Frequency-tuned salient region detection[C]∥IEEEConference on Computer Vision and Pattern Recognition.2009:1597-1604.

[4]CHENG M,MITRA N,HUANG X,et al.Global contrast based salient region detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(3):569-582.

[5]GOFERMAN S,ZELNIKMANOR L,TAL A.Context-aware saliency detection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34 (10):1915-1926.

[6]HAREL J,KOCH C,PERONA P.Graph-based visual saliency[C]∥IEEE Conference on Neural Information Processing Systems.2007:545-552.

[7]HOU X,ZHANG L.Saliency detection:a spectral residual approach[C]∥IEEE Conference on Computer Vision and Pattern Recognition.2007:1-8.

[8]LIU Z,LEM,LUO S.Saliency detection using regional histograms[J].Optics Letters,2013,38(5):700-702.

[9]HORNUNG A,PRITCH Y,KRAHENBUHL P,et al.Saliency filters:contrastbased filtering for salient region detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition.2012:733-740.

[10]TUW,HE S,YANG Q,et al.Real-time salient object detection with a minimum spanning tree[C]∥IEEE Conference on Computer Vision and Pattern Recognition.2016:2334-2342.

[11]WEIY,WEN F,ZHU W,et al.Geodesic saliency using background priors[C]∥Computer Vision-ECCV.2012:29-42.

[12]ITTI L,KOCH C,NIEBUR E.A model of saliency-based visual attention for rapid scene analysis[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,1998,20(11):1254-1259.

[13] YU J,TIAN J.Saliency detection using midlevel visual cues[J].Optics Letters,2012,37(23):4994-4996.

[14] GARDINER B,COLEMAN S,SCOTNEY B.Multiscale edge detection using a finite element framework for hexagonal pixel-based images[J].IEEE Transactions on Image Processing,2016,25(4):1849-1861.

[15]ZHANG J,SCLAROFF S,LIN Z,et al.Minimum barrier salient object detection at80 fps[C]∥IEEE International Conference on Computer Vision.2016:1404-1412.

[16]BAO L,SONG Y,YANG Q,et al.Tree filtering:efficient structure preserving smoothing with a minimum spanning tree[J].IEEE Transactions on Image Processing,2014,23(2):555-569.

[17]YANG Q.Stereo matching using tree filtering[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2015,37(4):834-846.

[18]SCHARFENBERGER C,WONG A,FERGANI K,et al.Statistical textural distinctiveness for salient region detection in natural images[C]∥IEEEConference on Computer Vision and Pattern Recognition.2013:979-986.

[19]RAN M,TAL A,ZELNIKMANOR L.Whatmakes a patch distinct?[C]∥IEEE Conference on Computer Vision and Pattern Recognition.2013:1139-1146.

[20]ZOU B,LIU Q,CHEN Z,et al.Saliency detection using boundary information[J].Multimedia Systems,2016,22(2):1-9.

[21]ZOU B,LIU Q,CHEN Z.Surroundedness based multiscale saliency detection[J].Visual Communication and Image Representation,2016,33(C):378-388.

[22]CHIRANJEEVIP,SENGUPTA S.New fuzzy texture features for robust detection ofmoving objects[J].IEEE Signal Processing Letters,2012,19:603-606.

[23]CHIRANJEEVIP,SENGUPTA S.Detection ofmoving objects using multi-channel kernel fuzzy correlogram based background subtraction[J].IEEE Transactions on Cybernetics,2013,44(6):870-881.

[24]KÜÇÜKTUNÇO,GÜDÜKBAY U,GÜDÜKBAYÖ.Fuzzy color histogram based video segmentation[J].Computer Vision and Image Understanding,2010,114(1):125-134.

[25]KIM W,KIM C.Background subtraction for dynamic texture scenes using fuzzy color histograms[J].IEEE Signal Processing Letters,2012,19:127-130.

[26]RADHAKRISHNA A,APPU S,KEVIN S,et al.SLIC superpixels[R].Trento:EPFL,2010.

[27]PRIM R.Shortest connection networks and some generalizations[J].Bell Labs Technical Journal,1957,36(6):1389-1401.

[28]CHENG M,WARRELL J,LIN W.Efficient salient region detection with soft image abstraction[C]∥IEEE International Conference on Computer Vision.2013:1529-1536.

[29]DOLLÁR P,ZITNICK C.Structured forests for fast edge detection[C]∥IEEE International Conference on Computer Vision.2013:1841-1848.

[30]TANG C,HOU C,WANG P.Salientobject detection using color spatial distribution and minimum spanning tree weight[J].Multimedia Tools and Applications,2016,75(12):6963-6978.

[31]ZHANG J,SCLAROFF S.Exploiting surroundedness for saliency detection:a Boolean map approach[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2016,38(5):889-902.

[32]COSTEA A,NEDEVSCHI S.Semantic channels for fast pedestrian detection[C]∥IEEE Conference on Computer Vision and Pattern Recognition.2016:2360-2368.

[33]VARGA R,VESA A,JEONG P,et al.Real-time pedestrian detection in urban scenarios[C]∥IEEEConference on Intelligent Computer Communication and Processing.2014:113-118.

[34]SHI J,YAN Q,XU L,et al.Hierarchical image saliency detection on extended CSSD[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2016,38(4):717-729.

[35]ZHAIY,SHAH M.Visual attention detection in video sequences using spatiotemporal cues[C]∥ACM Conference on Multimedia.2006:478-482.

[36]FU H,CAO X,TU Z.Cluster-based co-saliency detection[J].IEEE Transactions on Image Processing,2013,22(10):3766-3778.

[37] JIANG P,LING H,YU J.Salient region detection by UFO:uniqueness,focusness and objectness[C]∥IEEE Conference on Computer Vision.2013:1976-1983.

[38]ACHANTA R,SHAJIA,SMITH K,et al.SLIC superpixels compared to state-of-the-art superpixel methods[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2012,34(11):2274-2282.

 
程艳云,朱松豪,石路路
《南京邮电大学学报(自然科学版)》2018年第02期文献

服务严谨可靠 7×14小时在线支持 支持宝特邀商家 不满意退款

本站非杂志社官网,上千家国家级期刊、省级期刊、北大核心、南大核心、专业的职称论文发表网站。
职称论文发表、杂志论文发表、期刊征稿、期刊投稿,论文发表指导正规机构。是您首选最可靠,最快速的期刊论文发表网站。
免责声明:本网站部分资源、信息来源于网络,完全免费共享,仅供学习和研究使用,版权和著作权归原作者所有
如有不愿意被转载的情况,请通知我们删除已转载的信息 粤ICP备2023046998号