更全的杂志信息网

基于分类融合和关联规则挖掘的图像语义标注*

更新时间:2009-03-28

1 引言

伴随多媒体技术和互联网技术的飞速发展,数字图像已成为一种获得广泛应用的媒体。面对数量惊人的图像数据,如何高效理解图像内容成为当前的研究热点。基于内容的图像检索CBIR(Content-Based Image Retrieval)技术可以用于检索在视觉上具有相似性的图像,但将视觉词汇作为检索依据并不能给出令人满意的结果。对用户而言,基于文本的图像检索TBIR(Text-Based Image Retrieval)更加便捷。这种检索方式在语义标注过程中需要对图像建立文本索引,而这也是TBIR系统实现过程中最大的难题。人工标注是解决这一问题的传统方式,但由于现如今互联网上图像数量极其庞大,而且还在飞速增长,使得人工标注无法得以推广。因此,目前迫切需要一种可以高效、精确实现图像语义标注的方法。

利用支持向量机SVM(Support Vector Machine)[1]的方法可以将图像标注问题转化为多分类问题。Yang等人[2]提出ASVM-MIL(Asymmetrical Support Vector Machine-based Multiple-Instance Learning)算法,将损失函数引入到多示例图像分类学习中。HSVM-MIL(Heuristic Support Vector Machine in Multiple-Instance Learning)算法[3]采用了迭代的启发式最优化算法,使分类风险最小化,解决了复杂的整型规划问题。有学者提出点模式多样性密度PWDD(Point-Wise Diverse Density) 算法[4],有效解决了分类过程中的信息歧义问题。机器翻译模型TM(Translation Model)[5]是最早被提出的一种基于概率模型的图像语义标注方法。该方法首先将图像分割成一些同质的子区域,然后将分割后的区域进行聚类,聚类得到的区域称为blob,对每个blob进行特征提取;接下来通过在每个blob的视觉特征与标注的语义标签之间建立对应关系得到最终的语义标签。跨媒体相关模型CMRM(Cross-Media Relevance Model)[6]利用概率统计实现标注词与图像之间的对应。连续空间模型CRM(Continuous-space Relevance Model)[7]是针对CMRM的改进模型。与CMRM不同的是,CRM是非离散模型,不需要对特征进行聚类操作,而是在图像分割后直接利用图像特征的连续性进行概率估计,可以获得比CMRM更好的标注结果。但是,图像分割问题在现如今仍然是一个具有挑战性的难题。针对CRM的不足,多伯努利相关模型MBRM(Multiple Bernoulli Relevance Model)[8]利用多项式分布估计标注词概率,可以获得更好的标注结果,但MBRM仅适用于某些特定数据集,无法推广。近年来,基于数据共生性的概率统计模型PLSA(Probabilistic Latent Semantic Analysis)也被广泛应用于图像语义标注领域中,文献[9]提出PLSA-FUSION模型,通过构建两个PLSA模型分别构建视觉模态和文本模态的数据,然后再以自适应的方式不对称地融合两个PLSA模型,使得它们共享同样的潜在空间。基于图学习的自动图像标注算法[10]是以图像间的相似性关系为依据,利用图学习算法为图像进行语义标注。文献[11]针对运动领域的图像提出了基于图学习算法的CMRM图像语义标注方法,利用传统的CMRM对图像进行第一次标注,获得基于概率模型的图像标注结果,再根据本体概念相似度,利用图学习的方法对第一次标注结果进行修正,实验结果的查全率和查准率均高于传统的CMRM算法。

针对当前标注算法所存在的一些问题,本文提出了基于分类融合和关联规则挖掘的图像语义标注。对于CMRM对聚类结果依赖性强的问题,本文将图像分类信息与候选标注词集在图像语义传播过程中进行融合,使图像标注结果的准确性和稳定性都有所提高;针对文本间关联度不高的问题,本文采用改进的FP-growth算法挖掘文本关联关系,并将其与训练集中标注文本的统计关系融合,从而得到最终的标注结果。标注框架如图1所示。

  

Figure 1 Image annotation frame图1 图像语义标注框架

本文提出的标注方法主要贡献在于:

(1)提出了融合图像类别信息的跨媒体相关模型的图像语义标注新方法,实验结果表明了本文方法的有效性。

(2)在图像标注结果改善方面,本文采用改进的FP-growth算法对标注结果进行改善,最终的标注性能在原有基础上有明显提高。

(3)在标注结果选取方面,本文考虑了连续属性离散化,提出了采用等频分割的形式选取标注结果。

2 图像语义标注算法

2.1 CMRM

CMRM是一种基于概率模型的标注算法,借鉴了机器翻译模型的思想。其优势是无需建立图像的低层视觉特征与语义标签之间一一对应的映射关系,而是利用概率统计模型来描述图像低层视觉特征和语义标签之间的共生概率关系。

胃癌 突然出现原因不明的消化不良症状,如食欲迅速下降、恶心、食后腹部饱胀感及烧灼不适感,大便呈黑色,体重明显降低。或过去没有胃痛(“心窝痛”)的人,突然出现反复的胃痛;以前虽有胃痛,但近来疼痛的强度、性质、发作的时间突然改变,且原来治疗有效的药物变得无效或欠佳,需警惕并及时就医。

以我国XX地1/1000000比例尺分幅为例,在已编写程序中分别输入分幅比例尺、命名规则、分幅范围、经纬度坐标系等数据,随后对图幅图号、坐标进行计算,并将后缀为*.txt、*.img坐标格式导入软件中,可获得地理空间数据分幅成果。

为验证本文方法的有效性并与其他图像自动标注算法做公平对比,本文将Corel5k[5]作为实验数据集。该数据集包含5 000幅图像,分别来自50个CD包,每个CD包含100幅图像,其中4 500幅图像作为训练集,500幅图像作为测试集。每个图像有1~5个标注词,整个图像集中共计371个标注词,测试集包含260个标注词。

P(w,b1,b2,…,bm)=

 
 

(1)

其中,P(J)可以看成是一个在训练集上的均匀分布,P(w|J)和P(bi|J)分别代表图像的标注信息和图像的视觉信息。根据平滑的极大似然估计可以得到:

科学技术的持续发展使得某些现象发生了改变,公司的财务管理先进性和公司的业务水平因为网络的迅速发展而出现了所谓“拖后腿”的现象。在“互联网+”时代,公司的发展情况一般是呈正比例型的,换句话说,公司每一份业绩都会带来公司发展的实际的并且较为均匀的增长。而在“互联网+”的背景下,却出现了一个从未有过的阈值,企业的发展需要在突破阈值后才能进入一个快速发展的模式,在这之前业务能力会出现明显的“拖后腿”现象。

 

(2)

 

(3)

其中,αJβJ代表平滑系数;(w,J)表示标签w与图像J一起出现的次数;(w,T)表示w在训练集T中出现的总次数;(bi,J)与(bi,T)同理;|J|代表T中包含标注词或者blob的总数;|T|代表训练集中包含标注词或者blob的总数。

2.2 基于支持向量机的图像分类

如果将图像的类别看成语义标签,那么图像语义标注问题就可以转化为图像分类问题。对训练集中的图像进行区域分割后,采用有监督的学习方法训练分类器。将待标注图像作为输入,选择概率较高的分类结果作为图像的标注结果。图像语义标注相比于图像分类有其特殊性,传统的图像分类方法是将图像作为整体对应到相应类别,而对于具有多个标签的图像,可以将图像分成若干同质子区域,每个子区域与一个语义类别分别对应,各个子区域的语义表示构成了整幅图片的语义表示。

SVM是一个具有良好分类性能的分类器,可以用来解决高维问题和局部极值问题。其基本思想是,在线性可分的前提下,将低维空间中分布复杂的样本映射到高维特征空间中,通过将原始的分类问题转化为寻找最优超平面问题将样本分离开。寻找最优超平面的过程最终可以转化为二次规划问题,因此大大降低了分类问题的运算复杂度。解决多分类问题的一种方式是训练多个SVM,使每个SVM可以将其中一类与其余类别分开。

3 融合类别权重的CMRM图像标注算法

由于传统的CMRM算法需要对图像特征进行聚类处理,因此标注的质量受限于聚类效果。图像分类不需要聚类,因此不会被图像低层特征聚类影响,本文借鉴TF-IDF(Term Frequency-Inverse Document Frequency)算法[12]思想,将图像分类信息作为权重融合到CMRM模型中,有效改善了CMRM标注结果的质量。

3.1 特征提取

特征提取是图像语义标注流程中的关键步骤。本文采用了尺度不变特征SIFT(Scale-Invariant Feature Transform)和图像颜色特征。

飞秒激光(FS200,美国Alcon公司)制瓣角膜,准分子激光机行角膜基质切削(EX500,美国Alcon公司)。所有手术均由同一名临床经验丰富医师完成。

为确定SIFT特征兴趣点位置使用高斯差分函数如下:

D(x,y,σ)=[Gκσ(x,y)-Gσ(x,y)]*I=

[Gκσ-Gσ]*I(x,y)=Lκσ(x,y)-Lσ(x,y)

假设图像训练集为T={(I1,w1),(I2,w2),…,(In,wn)}。训练集T中,I表示图像,w为对应标注词。求解图像的语义标签就转变为求解max P(w|I)。首先,用blob集合来表示图像的低层视觉特征,每一幅图像的视觉特征可以表示为{b1,b2,…,bm},这里假定blob之间是相互独立并且具有相同的概率分布,那么给定训练图像后,跨媒体相关模型可以表示为:

(4)

 

(5)

公式(4)确定SIFT特征兴趣点,其中,(x,y)表示图像位置,I为原图像,σ为尺度空间因子, κ为计算相邻尺度常数,Lκσ(x,y)和Lσ(x,y)分别表示高斯金字塔中相邻尺度空间。图像位置尺度变化下D(x,y,σ)的极值点即被视为兴趣点,公式(5)为公式(4)中所使用的高斯公式。

羊群走路靠头羊,无私的领导带出奉献的兵。多年来,王丽霞全身心扑在工作上,带领全院谋求食检事业发展,淋漓尽致展现了一心为公、检验为民的朴素情怀。在急难险重任务面前,她带头加班加点,冲锋在前;在名利面前,却主动将荣誉和机会让给年轻骨干。先后培养出“三三三人才”、青年拔尖人才11人,培养国际ISO专家1人,国家和省级专家50余人。她带领的团队先后荣获“河北省直五一奖状”“河北省直先进集体”等10余项称号。她连续8年考核优秀,受嘉奖8次,荣立三等功1次,并荣获“河北省直五一奖章”。

在通过上述方式获得了兴趣点的位置、尺度信息后,为了实现旋转不变性,SIFT借助方向直方图来为兴趣点确定方向信息。兴趣点的梯度值m(x,y)和方向θ(x,y)计算方式如下:

m(x,y)=([L(x+1,y)-L(x-1,y)]2+

如图2所示,原图像被分成5个大小相同的区域,每个区域的长宽分别为原图像的1/2,分别对每个区域提取颜色特征,5个区域的颜色特征共同表示原图像的颜色特征。

 

在获得了兴趣点位置、尺度和方向信息后,SIFT描述子以兴趣点为中心,在4×4子区域上沿8个方向构建方向直方图,产生128(4×4×8=128)维SIFT特征描述子向量。

在数量庞大的图像中,将上述特征进行完全比较来寻找相似图像显然是不可行的,所以有研究者将文本挖掘技术引入到图像处理中[13]。通过构建矢量空间模型可以将图像表示成词袋模型BOW(Bag Of Words)。采用K-means算法对SIFT局部特征描述子聚类,每个聚类的质心即作为等效视觉单词,所有这些视觉单词构成视觉词汇。每幅图像都可以表示为一系列视觉单词,这样就可以用视觉单词直方图来表示一幅图像。BOW表示如图3所示。

本文所采用的SIFT特征提取方式在提取特征前,先将图像转换成灰度图像,提取的特征也是根据图像灰度信息,因此特征不包含图像的颜色特征,所以为全面获取图像中的信息,还需要对图像进行颜色特征提取。

由于图像标注的结果依赖于图像分割的质量,所以为降低图像误分割带来的影响同时减少系统开销,本文采用区块分割的方式。将图像分割成固定大小的网格,并采用RGB和HSV颜色直方图来表示图像的颜色特征。具体分割方式如图2所示。

1.2.2 声阻抗测试 声阻抗通过对鼓膜外侧声能传导过程变化的测量,了解中耳功能状态。鼓室导抗图主要分为三型[3]。A型:即钟型,特点是最大声顺应值是在正常的大气压(ommH2Oopa)它表明鼓膜正常,咽鼓管功能良好,见于正常耳。B型:平坦无峰,见于鼓室积液,耵聍堵塞。C型:鼓室图形态正常,但偏负压超过-150dapa,幅度在正常范围,见于中耳负压、咽鼓管功能障碍。

  

Figure 2 Image cut图2 图像分割

[L(x,y+1)-L(x,y-1)]2)1/2

3.2 生成候选标注词集

(2)颜色特征提取。

  

Figure 3 Model of BOW图3 BOW模型

采用SVM对SIFT描述子和颜色直方图分类,得到图像类别信息。分类过程中类别出现的次数作为评价类别重要性的标准。通过TF-IDF算法计算图像的类别权重。类别的重要性可以表示为:

 

其中,nc是类别c在分类结果集d中出现的次数。

归一化后,类别权重可以表示为:

 

其中,|D|是类别集合D中的类别数目,|[d:cd]|是类别集合中包含类别c的类别数。

首先算法以CMRM模型计算得出图像的初始候选标注词的概率;接着在图像语义传播过程中将SVM分类权重融合到标注词概率中,用Cd表示类别在分类结果中的权重idfc,d;最终融合后得到语义标注词概率可以表示为:

 

(6)

实验结果表明,通过式(6)可以计算得出更为准确的语义标签候选集。

4 基于关联规则挖掘的图像语义标注

针对文本间关联度不高导致标注结果不精确这一问题,本文利用关联规则挖掘算法提取文本相关度高的词汇,从而改善标注结果。常用关联规则挖掘算法FP-growth[14]与Apriori[15]都能够用来挖掘频繁项集,但在挖掘效率方面,FP-growth算法通过生成FP-tree的方式具有更好的性能。所以,本文针对图像语义标注系统,在FP-growth的基础上进行了改进,将FP-growth算法的频度与候选标注词集的统计概率相融合,从而得到了更好的标注结果。

(1)SIFT特征提取。

FP-growth算法可以描述如下:

(1)扫描一次输入数据。确定每个项的支持度计数,舍弃非频繁项,根据支持度将频繁项递减排序。

(2)第二次扫描数据集,构建FP-tree。读取第一个事务,创建节点集,形成路径,该路径上所有节点频度为1。

(3)依次读取事务。若事务与之前事务不存在共同前缀,则执行(4),否则执行(5)。

(4)为事务中节点创建新的节点集,然后连接节点形成新路径,表示一个新的事务,每个节点的频度计数为1。

(5)将重合节点频度加1,未重合部分创建新的节点,频度记为1。

(6)重复执行(3)直到所有事务都映射到FP-tree上。

通过上述算法,可以找到文本的频繁项集。但是,在相似图像中出现的频繁项不能直接作为待标注图像的标注结果,需要将频繁项集与标注词概率相结合。假设得到的频繁项集为F={(f1,C1),(f2,C2),…,(fn,Cn)},集合fn中包含候选标注词{w1,w2,…,wm},Cn为对应频繁项集的频度,则根据式(6)得到标注词w的最终概率为:

3.提高农村幼儿园绘本阅读活动的多元化。农村幼儿园老师应灵活使用游戏式、表演式、亲子式等多种绘本阅读模式。幼儿园老师可以根据绘本阅读教材内容来创造性的设计一些趣味性和互动性强的游戏,帮助幼儿更加准确的理解和把握绘本阅读材料角色的感情和特征,活跃幼儿绘本阅读氛围,提高幼儿绘本阅读的注意力以及培养幼儿绘本阅读的兴趣爱好;幼儿园老师可以先让幼儿独立阅读和了解绘本内容,随后让幼儿扮演绘本材料中不同的角色,幼儿相互配合共同完成绘本所讲述的故事,有利于锻炼幼儿的语言表达能力、记忆力以及团结合作能力等等。

P(w)=CnP(w|J)

通过上式计算每个候选标注词的概率,由于标注词长度不确定,常规方式通常设置固定参数对候选标注词进行截取,而本文则是对候选标注词概率进行等频离散化处理,选取概率最高的一组标注词作为标注结果。

5 实验分析

5.1 实验环境

实验在Ubuntu14.04操作系统系下进行,编辑器为Eclipse,采用Python 2.7实现原型系统。

天津市《关于进一步加强本市孤儿保障工作的意见》指出,“人力资源和社会保障部门要进一步落实孤儿成年后就业扶持政策,提供针对性服务和就业援助,促进和保障有劳动能力的孤儿成年后就业工作。对具备劳动能力的正常孤儿,应按规定纳入就业援助重点对象,落实相关就业政策,免费提供就业培训和指导。”

本专栏收入了梅黎明的《新时代实施乡村振兴战略的基本路径》,余佶的《新时代“三农”改革历程与经验——基于十八大以来6个中央“一号文件”的透视》,罗家为、谈慧娟的《乡村振兴的历史逻辑与时代背景》,李晓园、钟伟的《乡村振兴中的精准扶贫:出场逻辑、耦合机理与共生路径》,作者各具慧眼,文章各有侧重。个中精妙,还请读者诸君细细品味。

5.2 实验数据集

麸皮培养基:麸皮和稻壳按照8∶2的比例混匀,加水拌匀,加水量为总质量的65%,润粮2 h。结束后进行蒸煮,将锅放于电炉上加热,待有水蒸汽冒出后开始计时1 h,每隔15 min将原料翻1次,以保证均匀性。蒸煮结束后,将原料按10%比例装瓶,放入灭菌锅内,121℃高压灭菌30 min。

汉字在我们大人看来,是一个符号,但在孩子的眼中更像是一幅画、一首儿歌、一个有趣的故事……我们语文老师就是要给孩子想象的空间,让他们爱上汉字,爱上阅读。以课例为载体,对小学语文识字课型进行较系统的梳理,必能总结出有效的识字策略,从而能有效提升学生的识字能力。

5.3 实验参数设置

本文需要预先设置的参数主要有:式(2)和式(3)中的平滑系数,文献[8]证明了当αJ=0.1,βJ=0.9时,CMRM的标注效果最好,所以本文也采用相同的参数设置;在使用K-means算法对图像聚类时,本文涉及到的参数是视觉单词个数,由于聚类需要付出较大的时间代价,所以本文首先在小型图像集上进行测试,测试参数选取参考文献[16],实验结果显示,视觉单词在1 000左右时具有较好的聚类性能,与参考文献所使用参数相符;另外,在使用等频离散化处理过程中,本文第一次分别将区间设置为2、4、6、8,标注结果显示区间设置为4时具有较好的标注性能,区间超过4时开始呈下降趋势,第二次本文设置区间分别为3、4、5,结果显示参数设置为4时具有最好的标注性能。

5.4 标注示例

本文在传统标注模型上进行了多方位的改善,部分图像的标注结果如表1所示。

 

Table 1 Part of the annotation results表1 部分图像标注结果

  

ImagesModelsHumanCMRM+ClassificationCMRM+FP-growthCMRM+Classification+FP-growthmountainskysunwaterwatercloudstreemountainwaterskysunmountainwaterskysuncloudscoralanemoneoceanreefsreefscoraltreecoraloceanreefscoraloceanreefsjetplanesmokewaterplanetreejetskysunplanejetskysunplanecloudsfieldhorsesmarefoalsfoalsmarefieldwaterhorsesmarefoalsfieldfoalshorsesmarefieldbearpolarsnowsnowpolargrassbearfacepolarsnowbearfacepolarsnowwaterpeoplepoolswimmersswimmerswaterpoolpeoplepoolswimmerswaterpeoplepoolswimmerswater

5.5 标注结果比较

本文使用的三种评价方法表示如下:

 
 
 

其中,precision(w)表示标注词w的查准率,recall(w)表示标注词w的查全率。此外,本文还考虑了综合评价查准率和查全率的指标F(w)。Nc表示正确标注图像数,Ns表示检索到的所有图像数,Nr表示测试集中与该词相关的所有图像数。

与其他传统图像语义自动标注相比,本文表现出较好的标注性能,对比翻译模型TM、跨媒体相关模型CMRM、连续空间模型CRM、PLSA-FUSION模型的结果如表2所示。

 

Table 2 Performance comparison of image annotation表2 图像语义标注性能比较

  

ModelsMeanper-wordrecallMeanper-wordprecisionMeanper-wordFTM0.040.06-CMRM0.090.10-CRM0.190.16-PLSA-FUSION0.25780.2979-CMRM+Classifi-cation0.330.220.24CMRM+FP-growth0.230.270.24CMRM+Classifi-cation+FP-growth0.270.300.26

实验结果表明,本文提出的方法在查准率、查全率上都有所提高,在最终的标注结果中统计的F度量值也有所提高。

东京大学文学部创立之初,其第1科(史学、哲学及政治学,从第三年为哲学、政治学及理财学科)的全部课程如下:

6 结束语

本文设计开发了一个基于分类融合和关联规则挖掘的图像语义标注系统,在CMRM模型基础上,提出了在图像语义传播过程中将图像类别信息融合到语义标签中方法,在标注结果改善方面使用文本挖掘算法提取文本相关度高的词汇,同时针对图像语义标注这一具体问题对算法进行改进,将其与训练集中标注文本的统计关系融合,并对标注结果进行等频离散化处理,从而得到最终的标注结果。实验表明,本文方法在图像语义标注方面有较好的性能。

由于图像低层视觉特征对图像标注具有决定性的影响,所以采用更好的图像特征提取方法对图像语义标注性能的提高具有非常重要的意义。下一步的工作准备对图像特征提取进行改进,从而提高图像语义标注的性能。

参考文献:

[1] Zhang L,Lin F,Zhang B.Support vector machine learning for image retrieval[C]∥Proc of International Conference on Image Processing,2001:721-724.

[2] Yang C, Dong M,Hua J.Region-based image annotation using asymmetrical support vector machine-based multiple-instance learning[C]∥Proc of 2006 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR),2006:2057-2063.

[3] Lu Jing,Ma Shao-ping.Region-based image annotation using heuristic support vector machine in multiple-instance learning[J].Journal of Computer Research and Development,2009,46(5):864-871.(in Chinese)

[4] Li L,Wang C,Lim Y,et al.Building and using a semantivisual image hierarchy[C]∥Proc of 2010 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR),2010:3336-3343.

[5] Duygulu P,Barnard K,Freitas J F G D,et al.Object recognition as machine translation:Learning a lexicon for a fixed image vocabulary[C]∥Proc of Computer Vision(ECCV 2002),2002:97-112.

[6] Jeon J,Lavrenko V,Manmatha R.Automatic image annotation and retrieval using cross-media relevance models[C]∥Proc of the 26th Annual International ACM SIGIR Conference on Research and Development in Information Retrieval,2003:119-126.

[7] Lavrenko V,Manmatha R,Jeon J.A model for learning the semantics of pictures[C]∥Proc of Neural Information Processing System,2003:553-560.

[8] Feng S L,Manmatha R,Lavrenko V.Multiple bernoulli relevance models for image and video annotation[C]∥Proc of 2004 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR),2004:II-1002-II-1009.

[9] Li Zhi-xin,Shi Zhi-ping,Li Zhi-qing,et al.Automatic image annotation by fusing semantic topics[J].Journal of Software,2011,22(4):801-812.(in Chinese)

[10] Lu Han-qing, Liu Jing. Image annotation based on graph learning[J].Chinese Journal of Computers,2008,31(9):1629-1639.(in Chinese)

[11] Li Ling,Song Ying-wei,Yang Xiu-hua,et al.Image semantic annotation of CMRM based on graph learning[J].Optics and Precision Engineering,2016,24(1):229-235.(in Chinese)

[12] Salton G, Buckley C. Term-weighting approaches in automatic text retrieval[J].Information Processing and Management,1988,24(5):513-523.

[13] Bosch A,Muoz X,Martí R.Which is the best way to organize/classify images by content?[J].Image and Vision Computing,2007,25(6):778-791.

[14] Han J,Pei J,Yin Y,et al.Mining frequent patterns without candidate generation:A frequent-pattern tree approach[J].Data Mining and Knowledge Discovery,2004,8(1):53-87.

[15] Agrawal R,Imieliński T,Swami A.Mining association rules between sets of items in large databases[J].ACM Sigmod Record,1993,22(2):207-216.

[16] Solem J E.Programming computer vision with python[M].Zhu Wen-tao,Yuan Yong, translation.Beijing:Posts and Telecommunications Press,2014.(in Chinese)

附中文参考文献:

[3] 路晶,马少平.使用基于多例学习的启发式SVM算法的图像自动标注[J].计算机研究与发展,2009,46(5):864-871.

[9] 李志欣,施智平,李志清,等.融合语义主题的图像自动标注[J].软件学报,2011,22(4):801-812.

[10] 卢汉清,刘静.基于图学习的自动图像标注[J].计算机学报,2008,31(9):1629-1639.

[11] 李玲,宋莹玮,杨秀华,等.应用图学习算法的跨媒体相关模型图像语义标注[J].光学精密工程,2016,24(1):229-235.

[16] 索利姆.Python计算机视觉[M].朱文涛,袁勇,译.北京:人民邮电出版社,2014.

 
秦铭,蔡明
《计算机工程与科学》2018年第05期文献

服务严谨可靠 7×14小时在线支持 支持宝特邀商家 不满意退款

本站非杂志社官网,上千家国家级期刊、省级期刊、北大核心、南大核心、专业的职称论文发表网站。
职称论文发表、杂志论文发表、期刊征稿、期刊投稿,论文发表指导正规机构。是您首选最可靠,最快速的期刊论文发表网站。
免责声明:本网站部分资源、信息来源于网络,完全免费共享,仅供学习和研究使用,版权和著作权归原作者所有
如有不愿意被转载的情况,请通知我们删除已转载的信息 粤ICP备2023046998号