更全的杂志信息网

基于非线性距离和夹角组合的最近特征空间嵌入方法*

更新时间:2009-03-28

1 引言

随着生物识别技术日趋成熟,人脸识别、指纹识别和虹膜识别被广泛应用于多种场合来提高效率和安全性。其中,人脸识别因其资料获取便捷、成本低廉而更容易为人们所接受。人脸识别易受眼镜等遮挡物、表情、姿势、光照等因素影响,近年来研究者们提出了基于流形的学习方法来提高识别率。文献[1]提出了拉普拉斯特征脸方法,该方法可以保留样本局部结构。文献[2]提出了近邻保持嵌入NPE(Neighborhood Preserving Embedding)方法,该方法是保留局部邻近结构的非监督降维方法。为了能够保留更多局部信息,文献[3]又提出了正交局部保持投影OLPP(Orthogonal Locality Preserving Projection)。除此之外,拉普拉斯特征映射LE(Laplacian Eigenmap)、非监督判别投影UDP(Unsupervised Discriminant Projection)[4]和局部线性嵌入LLE(Locally Linear Embedding)[5,6]等方法也能够产生其他的非线性流形结构并保留样本局部信息。

类似于主成分分析PCA(Principal Components Analysis)[7],这些非监督方法适用于降维和样本重建,没有用类别信息寻找转换矩阵。Fisher准则是利用了类别信息的判别准则函数,定义为类间离散度和类内离散度的比,通过最大化这个比值得到优化的判别投影轴,使得样本投影到这个投影轴后类内散度最小而类间散度最大。改进的Fisher是通过局部保留投影LPP(Locality Preserving Projection)[1]计算类内和类间离散度来保留局部结构。有监督的LPP、正交近邻保留判别分析ONPDA(Orthogonal Neighborhood Preserving Discriminant Analysis)[8]、边际费舍尔分析MFA(Marginal Fisher Analysis)[9]等方法可以产生描述样本点之间邻近关系的相似度矩阵。线性判别分析LDA(Linear Discriminant Analysis)[10]首先通过点到点的向量计算离散度,然后通过最佳判别向量构成的投影矩阵来确定使Fisher准则达到最大时的投影方向。

最近线性组合方法NLC(Nearest Linear Combination)[11]可以线性地结合每类中多个特征点产生子空间来表示特征点所在的类,引出了最近特征子空间的概念。文献[12,13]提出了最近特征线NFL(Nearest Feature Line)的分类方法。Chen等人[14]将NFL通过判别分析嵌入到转换过程中,提出最近特征空间嵌入NFSE(Nearest Feature Space Embedding)方法,综合考虑最近特征空间度量、邻近结构保留和分类程度。该方法使得特征点到不同类特征空间的距离最大,特征点到同类特征空间的距离最小,这样即可找到判别力更强的转换矩阵,以提高各类样本之间的区分度。文献[15]将最近特征空间嵌入与数据稀疏表示相结合,提出稀疏近似最近特征空间嵌入标签传播算法SANFSP(Sparse Approximated Nearest Feature Space embedding label Propagation)。

NFSE在求最近特征空间时使用欧氏距离度量,但欧氏距离是线性的,类内、类间离散度变化同步,降低了分类精度;在匹配阶段,使用基于欧氏距离的最近邻NN(Nearest Neighbor)匹配规则较为便捷,然而高维空间中各样本间的直线距离基本相同,具有趋同性,不能如实反映样本的分布。很多时候非同类样本间的直线距离比同类样本间的直线距离更小,不能只根据样本点间欧氏距离的大小顺序来判断两个样本是否属于同类。

本文针对NFSE存在的上述两个问题,提出了基于非线性距离和夹角组合的最近特征空间嵌入方法NL-IANFSE(Nearest Feature Space Embedding method based on the combination of NonLinear distance metric and Included Angle)。训练时,在欧氏距离基础上采用非线性距离公式求出点到特征空间的距离,使类内距离的变化速度远小于类间距离变化速度,从而增大类间离散度和类内离散度的比值,得到判别力更强的转换矩阵。测试时,本文使用结合夹角度量的最近邻分类器[16],同时考虑了样本在嵌入空间的位置关系和样本之间的相似性,结合欧氏距离和夹角度量两种度量方法对样本进行分类匹配,更适合高维空间中样本分类。

葛立方的笔记,由左思、陶潜的诗说起,对于两位诗人贬低荆轲人格,予以纠正,并指出均出自于以成败论人之庸俗历史观。这是作者的高明之处,值得赞赏。然而,在他指责太子丹催促荆轲出发行刺而导致了荆轲之失败,并谓“概之于义,虽得秦王之首,于燕亦未能保终吉也”之时,同样犯了以成败论人的痼疾。至于举汉代扬雄之言,斥荆轲无义,并视其为后代黑幕刺客之绪,则更为无稽。盖扬雄身处排斥游士的汉代,处禁锢日深,站在时代的立场,自然要非议荆轲,反对复仇;何况扬雄信奉古文经学,与今文经学有隔。故此,扬雄反感以公羊学为思想基础的作品及其所塑造出来的人物。

2 相关研究

2.1 特征脸投影方法

地图数据作为地图的核心内容,在地图制作和地图分析过程中具有不可替代的作用.信息化时代下,地图数据呈现出多源化的趋势,数据来源广泛、数据种类繁多.因此在教学模式设置上要针对地图数据的特点,采用任务教学的方式,即通过设定不同的学习目标,分组完成各类地图数据源的采集和分析处理工作,进而课上不同小组间进行学习成果展示与交流,达到大家共同学习的目标.任务教学方式能够充分调动学生学习兴趣,学生参与感强且学习效果深刻,不仅可以掌握地图专业知识,而且能够提高学生解决问题的能力.

对于施工企业来讲,由于内部专业分工不同,各部门、各岗位难免会出现矛盾和交叉,如果没有明确的工程大目标,各自为政,那么无疑公司会陷入混乱。这就需要领导明确和剖析工程项目大目标,分清哪些是主要目标,哪些是次要目标,从而找到工程目标的关键线路,并适时的不断强化全体人员对目标关键节点的印象,使员工对目标过程有清晰的认识,并每天不断的自我暗示,最后全力以赴实现既定目标。

当高维数据在低维流形中时,将原始数据简单地假设成线性结构是不对的。LPP和LLE是两种保留样本局部结构的流形学习方法,比保留全局欧氏结构的PCA和LDA算法更有效。LLE最小化重构误差,而LPP则最小化近邻点之间的距离之和。

2.1.1 局部线性嵌入

样本在高维空间的分布无法仅仅依靠两点之间的直线距离来反映,考虑样本间的夹角会收到意想不到的效果。样本间的夹角值处于0到π/2之间,随着样本的相似性的增大而减小,能更好地描述样本的真实分布情况。同类样本相似性明显大于非同类样本,利用样本间的夹角值有助于确定不同样本是否来自同一个类。文献[16]将样本点之间的夹角融合到欧氏距离中,获得了结合夹角度量的最近邻分类器,降低空间分布对样本的影响,提高了分类准确率。

2.1.2 局部保持投影

局部保持投影能够相对准确地将非线性的数据从高维降到低维,保留了数据原本的局部结构与几何结构,弥补了PCA和LDA只保留全局结构的不足,更适用于人脸识别。

通过求解以下最小化问题得到最优转换矩阵w

w=arg minwijyi-yj2Si,j=

arg minwijwTxi-wTxj2Si,j=

arg minwtr(wTXLXTw)

(1)

L=D-S为拉普拉斯矩阵,S是对称的相似度矩阵,DS的列和/行和(因为S是对称矩阵)。

1.注重学生的思想教育。学生要在学校的帮助与教育下培养并加强自身的职业道德,在充分充分了解服务行业的基础上,加强专业知识与实际工作的结合,爱岗敬业,诚实守信,始终以积极的态度面对实习工作;加强纪律观念,严格遵守酒店的管理规章制度,改进自身在工作时的缺陷与不足,使自己在顶岗实习的过程中不断成长,最终成为合格的酒店管理工作人员。

化简后转化成一般的特征值问题:XLXTw=λXDXTww则是由前若干个最小特征值对应的特征向量组成的矩阵。

2.1.3 有监督的局部线性嵌入

高维流形多为卷曲状,一个样本点与另一类中某样本点的欧氏距离可能要比它和本类中某样本点的欧氏距离更小,所以直接用欧氏距离作为选择邻域点的标准不够严谨。为解决这个问题,Ridder等人[17]提出了SLLE(Supervised Locally Linear Embedding)算法,在构造邻域时加入样本的类别信息,采用公式D′=D+γmax(D)Δ来计算两个样本点间的距离,其余步骤不变。其中max(D)表示类和类之间的最大距离;当两个样本点同属一类时Δ为0,否则为1;γ是取值0~1的可调参数,根据经验选取,当γ=0时即为LLE。

2.2 最近特征空间嵌入

最近特征空间嵌入NFSE方法将基于特征空间的距离度量嵌入到判别分析,某个特征点到特征子空间的距离的计算便被从匹配阶段嵌入到投影转换中,节省了大量匹配时间。最近特征空间与拉普拉斯矩阵相结合,更完整地保留了样本在高维空间的拓扑结构和样本之间的线性关系,并通过考虑类别信息的Fisher准则使转换后的样本空间更易于分类[14]

通过PCA对原始样本降维之后,用特征点到其在特征空间的投影点的向量长度表示特征点到特征空间的距离。对每一个样本点,选择它到类内特征空间的前K1个长度最短的向量和到不同类特征空间的前K2个长度最短的向量,分别用以计算类内离散度和类间离散度。最大化Fisher后找到的最大的前r个特征值对应的特征向量组成转换矩阵w*,NFSE的最终转换矩阵w=wPCAw*,其中,wPCA是PCA降维之后得到的转换矩阵。

2.3 分类匹配规则

当今社会越来越多的人想收获成功,是否成功成为了最终的衡量标准。希望在我们拼命的学习如何成功冲刺一百米的同时,也能学会如何用积极的心态面对一次又一次的跌倒。失败是人生的修行,积极的面对和处理困难的人往往更容易找到成功的路。

2.3.1 最近特征线匹配

最近特征线(NFL)匹配是在最近邻匹配(NN)的基础上改进得到的,将NN中求两个样本点之间的距离改为求样本点与其在特征线上的投影点之间的距离。当每类中有两个以上样本时,用任意两个样本点相连形成的特征线子空间来表示这一类,相当于样本点从原来的N个变为N(N-1)/2个,当N>3时,N(N-1)/2>N

根据矩阵的迹的性质,‖C2=CCT,离散度矩阵可以化简成拉普拉斯矩阵的形式:

  

Figure 1 Distance from the feature point to the feature line图1 特征点到特征线的距离

2.3.2 结合夹角度量的最近邻分类器

数据集中的所有样本点都可以用它的k个近邻点线性加权表示,LLE是一种无监督的非线性降维方法,使样本映射在低维空间也能由这个近邻点线性加权表示,样本间局部拓扑结构在转换前后保持一致。样本点yi与其近邻点之间的重构误差函数定义为ε=∑iyi-∑jMi,jyi2=tr[Y(I-MT)(T-M)YT],其中,Y=[y1,y2,…,yN],根据文献[8],误差函数最小化可表示为Y*=arg min Y(I-MT)(I-M)YT,进一步化简得到Y*=arg min Y(D-W)YT,其中,当i=j时,相似度矩阵Wi,j=(M+MT-MTM)i,j;当ij时,Wi,j=0

Dex是一种新型高选择性α2-肾上腺素受体激动剂 ,2009年在我国上市后,由于它除了具有镇痛、镇静和抗焦虑作用,还具有抗交感 、稳定血流动力学和降低麻醉药用量等多方面作用,目前已广泛应用于临床的各个领域[4],随着社会经济的发展,脑血管疾病的发病率、致死率和致残率升高,逐渐成为临床上致残与致死的主要原因,最为常见的是缺血性脑血管病变。

xixj分别为高维空间中的两个样本,通过余弦定理求出二者的夹角:

采用PECVD沉积氧化硅薄膜,研究了在不同条件下制备折射率均匀、应力良好的掺Ge氧化硅薄膜波导.研究发现为了提高薄膜均匀性减小应力,薄膜芯层通过GeH4流量而不是SiH4流量来改变折射率,同时光波导薄膜厚度和折射率均匀性会使传输光波在不同的偏振状态下具有不同的折射率值,即光学薄膜的双折射效应,从而使器件的PDL值增大,双折射性能在整个晶圆上的不均匀分布会影响产品的良品率,所以精确控制每个参数并把握其变化规律对提高产品性能及生产良品率至关重要.

 

(2)

将夹角与欧氏距离融合即可得到关于xixj的融合值:

 
 

(3)

其中,β∈[0,1]是融合系数;Di·表示xi和其他所有样本点的直线距离;θ表示和其他所有样本点的夹角。与xi融合后取得最小值的样本所属的类即是xi所属的类。

3 基于非线性距离和夹角组合的最近特征线嵌入方法

NFSE通过线性的欧氏距离度量选取近邻空间,类内、类间离散度变化同步,不利于分类;测试时选择了基于欧氏距离的最近邻匹配规则,但由于高维空间中,很多时候非同类样本间的直线距离比同类样本间的直线距离更小,各样本间的直线距离不能很好反映样本的分布,仅凭样本点间的欧氏距离作为分类依据并不准确。

黑与白是永远的流行色,太极也正是黑白两色组成,苏泊尔R9713净水机正是演化了极简式设计,和MUJI风格非常相似。

为解决上述问题,本文提出了基于非线性距离和夹角组合的最近特征空间嵌入方法NL-IANFSE。首先,在选取近邻空间时,NL-IANFSE采用非线性距离公式计算点到特征空间的距离,使类内距离的变化速度远小于类间距离的变化速度,从而增大类间离散度和类内离散度的比值,使转换到低维空间的同类样本彼此更为靠近,而非同类样本之间的距离更大,使低维的嵌入数据有更强的判别力,可以很好地提高分类精度。然后,使用结合夹角度量的最近邻分类器[16],不但考虑了样本在嵌入空间的位置关系,还考虑了样本之间的相似性,结合欧氏距离度量和夹角度量两种度量方法对样本进行分类匹配,弥补欧氏距离反映高维空间样本分布不可靠的缺点,可以得到比NN更佳的匹配结果。

为了阐述上述思想的实现方法,3.1节~3.5节较为详细地介绍了NL-IANFSE的过程。

3.1 选取样本的近邻点

Li等学者[11,12]提出的用于人脸识别的NFL分类器通过原始特征点的线性逼近来提高表示类的能力,是基于最近线性组合的分类器之一。这种基于点到最近特征空间的距离度量方法优于点到点的距离度量,值得借鉴。假设空间里共有N个特征点,两两连线形成特征子空间(特征线),则可以计算出任一特征点到它在条特征线上的投影点的距离。同理,当每一个特征子空间由三个点(即一个平面)组成时,可以求个距离。进一步能够推广为,此时每个特征子空间包含Q(Q≥3)个点。传统距离度量多为线性的欧氏距离,但类内离散度和类间离散度变化同步且仅适用于球状数据,文献[18]改进了SLLE,采用非线性距离公式,使类间距离快速增大时类内距离能够较为缓慢地增长,这样即可提高样本的分类精度。

在测试阶段,使用2.3.2节中提到的结合夹角度量的分类器。依次求出测试集中每一个样本与训练集中各样本的夹角以及欧氏距离,并计算与每个训练样本的融合值,融合值最小的训练样本所在的类便被认为是该测试样本所属的类别。

 

(4)

其中,A是不考虑类别信息的传统欧氏距离;B通常为所有样本两两之间欧氏距离的平均值,与样本的分散程度有关;参数α为常数,介于0、1之间,用于设置样本点类别信息的结合程度,调节类间样本点的距离。

利用上述公式求出高维空间中距离各个样本最近的K个特征子空间,以便后续计算离散度。

3.2 类内离散度与类间离散度

假设经过yi=wTxi转换后的低维空间中的数据集合为T={y1,y2,…,yN},从T中可以由Q个点产生个子空间,用g(Q)表示。样本点yi到特征子空间的投影点为g(Q)(yi),指定样本点到特征子空间的欧氏距离即为向量yi-g(Q)(yi)的长度,表示为‖yi-g(Q)(yi)‖。我们希望转换后类内离散度最小同时类间离散度最大,离散度矩阵的计算公式可用下式表示:

 

(5)

 

(6)

 

(7)

训练集有NC个类,第i个类有Ni个样本,表示第i个类中的第j个样本表示由与同类的特征点产生的K1个最近特征子空间的集合,表示由与不同类的Q个特征点产生的K2个最近特征子空间的集合,其中,每个特征子空间都由Q个特征点产生。

在转换空间中,对于一个点yi,可以求其到个子空间的距离,当Q=1时,特征子空间汇聚成一个点,当Q=2时,特征子空间是特征线。由于没有证据表明当Q≥3时最近特征空间嵌入的效果会更好,所以本文只讨论Q=2时的情况。设ymyn为不同于yi的两个同类样本点,由二者形成的特征线通过ymyn。如图2所示,yi在特征线上的投影点可以用ymyn的线性组合来表示,记为g(2)(yi)=ym+λm,n(yn-ym)。根据2.3.1节关于NFL的推导可知,λm,n=(yi-ym)T(yn-ym)/(yn-ym)T(yn-ym)。

  

Figure 2 Representation of the projection point图2 投影点的表示

进而可以表示出特征线到点yi的向量:

 

yi-ym-λm,nyn+λm,nym=

yi-(1-λm,n)ym-λm,nyn=

在训练过程中将训练样本投影至转换空间并得到转换矩阵w,在测试阶段通过w将测试样本也投影到该转换空间,使用某种匹配规则将待分类测试样本分类,求出分类准确率。

yi-λn,mym-λm,nyn

(8)

其中,λm,nλn,m是低维空间中的权重,满足条件λm,n+λn,m=1。

找出样本点yi到最近的K个特征子空间的判别向量进行判别分析,使下列目标函数最小化,从而求得转换矩阵:

F=∑ig(2)T(2)yi-g(2)(yi)‖2ω(2)(yi)

(9)

其中,ω(2)(yi)是一个权值矩阵,表示N个特征点和它们对应的投影点g(2)(yi)之间的连接关系。把目标函数分解成K个部分,每个部分都是每个样本点到第K近的特征线的距离的平方之和,并且每个部分都能够推导成拉普拉斯矩阵的形式,便于计算。

 
 
 
 
 

tr(Y(I-M(1))T(I-M(1))YT)+

tr(Y(I-M(2))T(I-M(2))YT)+…+

tr(Y(I-M(K))T(I-M(K))YT)=

tr(Y(D(1)-W(1))YT)+

tr(Y(D(2)-W(2))YT)+…+

中国造纸》除及时报道各研究机构、高等院校在科研理论方面取得的突破成果外,还注重报道各制浆造纸厂引进或自行研究探索的新工艺、新技术。《中国造纸》将理论与实践有机结合,更好地满足了科研工作者以及制浆造纸工厂技术人员的需要。《中国造纸》是我国造纸界权威性技术期刊,连续入选“中文核心期刊”“中国科技论文统计源期刊”“中国科学引文数据库来源期刊”“中国科学文献评价数据来源期刊”,入选“中国科协精品科技期刊工程第四期项目”,并已被Scopus、CA等国外著名的期刊索引收录。

tr(Y(D(K)-W(K))YT)=

tr(Y(D-W)YT)=tr(wTXLXTw)

(10)

公式中的M(K)是一个ij列的稀疏矩阵,i是样本数,j是特征线数目。Mi (K)是一个行向量,表示yi和距离它第K近的特征线的连接关系。M的每一行都只有两个非零值,且这两个非零值相加和为1。例如,Mi(1)是yi和最近特征线的连接关系,imnMi,m(1)表示矩阵M(1)的第i行第m列的元素。Mi,m(1)=λn,mMi,n(1)=λm,n,并且满足Mi,m(1)+Mi,n(1)=1,M(1)中的其他列元素均为0。同理,Mi(2)是yi和第二近的特征线的连接关系,Mi,m(2)=λn,mMi,n(2)=λm,n,∑jMi,m(2)=Mi,m(2)+Mi,n(2)=λm,n+λn,m=1。依此类推。当i=j时,Wi,j(K)=(M(K)+M(K)T-M(K)TM(K))i,j,当ij时,Wi,j(K)=0。另外,D=(D(1)+D(2)+…+D(K))/KW=(W(1)+W(2)+…+W(K))/K

最后,统计车组信息。车组信息包括车号、状态、担任车次、当前总走行里程、距离测量基准时间的天数及测量基准时间对应的车组总走行里程等,如图4所示。

如图1所示,假设x1x2是某类中的两个样本点,一条直线通过x1x2形成一条特征线若要求另一样本点x到特征线的距离,只需要求出x与它在这条特征线上的投影点之间的距离。设投影点为qq可线性表示为q=x1+μ(x2-x1),μ为常系数。显然线段与线段相互垂直,那么有(q-x)·(x2-x1)=0,代入q的表达式得[x1+μ(x2-x1)-x]·(x2-x1)=0,解出然后即可求得投影点。由此可求出每个样本点到各条特征线的欧氏距离,距离样本点最近的特征线所在类别即为该样本点所在的类别。

 

(11)

 

(12)

LW=DW-WW表示类内的情况,LB=DB-WB表示类间的情况。

3.3 最大化Fisher

为了找到使得转换后的样本类间离散度最大而类内离散度最小的转换矩阵,要将Fisher最大化,取使达到最大值的转换矩阵作为结果,即:

3.4 测试方法

下面给出结合样本类别信息的非线性距离的计算公式。设xi,xj为两个样本点,则其非线性距离可按照如下公式计算:

3.5 NL-IANFSE算法

根据3.1节至3.4节的介绍,总结出NL-IANFSE方法寻找转换矩阵w的具体步骤如下:

输入N个训练样本s1,s2,…,sN,参数R,K1,K2,α,β,r

输出:转换矩阵w=wPCAw*

Step 1 使用PCA算法将训练样本降到小于样本总数的较低的维数,得到转换矩阵wPCA和样本xi=wPCAsii=1,2,…,N

Step 2 求出训练集中所有PCA降维后的样本点在特征空间中的投影点g(p)(xi),i=1,2,…,N。通过公式(4)分别求得每个样本点到类内和类间的特征空间的距离并按从小到大的顺序排序,选出每个样本点的类内的K1个最近特征空间和类间的K2个最近特征空间。

Step 3 根据公式(5)和公式(6)计算类内离散度和类间离散度。

Step 4 最大化Fisher得到转换矩阵取最大的r个特征值对应的特征向量组成w*

Step 5 得出最终的转换矩阵w=wPCAw*

Step 6 通过w将测试集也投影到低维空间,利用公式(3)判断测试样本所属类别。

设有Nd维样本x1,x2,…,xN组成NC(下标C代表类别class)个面部类。低维空间中的新样本yi通过线性投影yi=wTxi得到,其中,w是需要求出的线性转换矩阵。

近些年来,我国较为系统地引进和大面积营造相思类树种,并建立了一代种子园。针对相思类树种的研究,前期研究重点主要集中在引种适应性评价[7-10]、优良个体的选择[11-12]及无性繁殖方面[13-14],而对于该类树种的器官季节性变化现象——物候方面研究,还未见系统性报道。物候期是植株的生长发育过程与活动规律对季节性气候变化的反应,是对植物性状比较科学的描述。物候期的差异是植物生长特性最直接的外观表现[15]。因此,开展不同相思树种的物候期和生态习性研究,以期对相思种子园管理以及杂交育种技术具有指导意义。

4 实验设计及结果分析

4.1 数据集与参数设置

本文的实验全部采用人脸数据集,分别为ORL、CMU[19]、Yale B和AR。ORL人脸数据集由剑桥大学创建,包含40个人的400张图像,每人10张,每张都是正面照,有少许的表情变化。CMU人脸数据集是由68名志愿者在不同的姿势、光照、表情下的面部图像,总数超过40 000张。本实验选取了其中67人的照片,每人170张。耶鲁大学建立的Yale B一共采集了10位志愿者的面部图像,每人585幅,我们选取每个人的64幅图像进行实验,共640幅。AR来源于西班牙巴塞罗那计算机视觉中心,本文使用120名志愿者的面部图像,每位26幅图像。

对每幅图像进行归一化处理,裁剪成32*32像素大小的256级灰度图像,以此来消除背景和头发对识别的影响。训练样本和测试样本皆为随机产生,另外,为避免小样本问题,需要提前通过PCA算法将原始数据降到R(R小于训练样本数N)维,保留数据绝大部分特征。

K1K2的取值与样本分布有关。当训练集每一类中的样本数较少时,K1的值即为所有可能的特征子空间的数目;当训练集每一类的样本数较多时,出于节省计算时间的考虑而将K1设为10。K2的值设为K1的3~10倍,超出10倍则训练时间会有所增加。

根据3.1节和2.3.2节,α是非线性距离公式中的参数,按照经验取为0.5;β是结合夹角度量的最近邻分类器中用到的融合参数,本实验设为0.2。

w*的维数r是一个可调参数,实验中,r从5~70维,每隔5维取一次,观察在不同维数的转换空间中识别率的情况。

本文使用PCA+LPP、PCA、PCA+LDA、PCA+NPE以及PCA+NFSE五个经典算法与提出的算法进行对比。对比算法采用NN规则进行匹配,每个算法在不同的维数下运行10次,以10次的平均值作为最后的识别率。

表1列出了不同数据集上的实验参数的具体设置情况。

 

Table 1 Experimental parameters for various data sets表1 不同数据集的实验参数设置

  

参数名数据集ORLCMUYaleBAR类别数406710120每类样本数101706426样本总数400113906403120每类中训练样本数45914101546每类中测试样本数6516115654492220PCA后的维数120160300300100100300300K13610101010310K23030303030303030α0.50.50.50.50.50.50.50.5β0.20.20.20.20.20.20.20.2

4.2 实验结果及分析

为了全面客观地评估算法的性能,对于每个算法,每个数据集都做两组实验,每组分别取不同数目的样本作为训练样本。每个数据集在不同算法下的最高识别率、标准差及其所在维数如表2和表3所示。从表中可以看出,NL-IANFSE在四个数据集中基本上都具有最高的识别率且标准差都在2%以内,性能比较稳定。各个算法在四个数据集中的最低识别率、标准差和所在维数如表4和表5所示。从表中可以看出,除ORL数据集外,NL-IANFSE在另外三个数据集上的最低识别率没有明显的劣势,同时其标准差较低,反映出NL-IANFSE在低维上也具有较稳定的性能。

在《雷雨》第二幕中,当周朴园听出鲁侍萍的无锡口音时,跟她聊起三十年前的无锡旧事时,有如下一段对白:“周朴园:哦,三十年前你在无锡?鲁侍萍:是的,三十多年前呢,那时候我记得我们还没有洋火呢。”这里,人称代词“我们”用得妙极!后一句本来完全可以说成“我记得那时候还没有洋火呢”,可是作者不避重复,且故意选用“我”与“我们”的错位,“我们”这一本应该包括听话人在内的人称实为鲁侍萍放出的试探气球,倘若周朴园心神警觉,早该听出其弦外之音,以揭开眼前这位妇人的身世之谜,显然在鲁侍萍的心头蒙上一层阴影。

为了能够清楚地观察降维数对各个算法性能的影响,本文实验研究了各个算法在不同数据集降到5~70维时的识别率,如图3~图6所示。NL-IANFSE在相同维数上比NFSE算法几乎都要更高,而且从在CMU、Yale B和AR三个数据集上的实验来看,在低维时也能基本保证具有相对不错的效果。当每类中用于训练的样本数增加时,识别率也随之提高,这是因为训练样本数目增加使得样本信息增加。随着维数的增大,提取出的特征逐渐增多,识别率会有所提高,到一定维数后,有用的特征基本不再增加,于是识别率趋于稳定。

利用上述DFL的定义公式计算财务杠杆系数,必须取得利润变动率和每股收益变动率,这些都是事后反映的数据,不便于DFL的预测。为此,要设法推导出只需基期数据计算经营杠杆的公式,即假定企业的成本、销量、利润保持线性关系,产品可变成本在销售收入中所占的比例不变,固定成本在相关的范围内保持稳定,财务杠杆系数可通过销售额和成本组合,或者以中间指标边际贡献和成本的组合来表示。

4.2.1 ORL

如图3所示,当每类中有4个样本作为训练样本,使用NL-IANFSE降维到35维以上时,识别率即超过90%;当每类中训练样本上升到5个时,NL-IANFSE在相同维数上比NFSE算法几乎都要更高。从表2中可以看出,虽然NL-IANFSE将ORL数据集降到低维空间后的最高识别率略低于NFSE的最高识别率,但较之其他对比算法都要高一些。

4.2.2 CMU

从图4中可以清楚地看到,NL-IANFSE在CMU数据集上各个维度的识别率均明显高于所有对比算法。表2显示,每一类选取9个样本训练时,NL-IANFSE算法的最高识别率为82.78%,较之NFSE的74.40%高8.38%;当每类中用14个样本进行训练时,NL-IANFSE的最高识别率为88.82%,比对比算法中效果最好的NFSE高5.11%。

4.2.3 Yale B

图5是将数据集降到不同维数的识别率的折线图,不难看出,NL-IANFSE与NFSE算法的最高识别率相比较有一定提升,也比其他对比算法效果更好。如表2所示,当每类有10个和15个作为训练样本时,NL-IANFSE的最高识别率分别为88.20%和93.45%,比NFSE分别高出4.82%和3.67%。

 

Table 2 Highest recognition rates and the standard derivations on the ORL and CMU databases (percent)表2 不同算法在ORLCMU上的最高识别率(%)及标准差

  

算法数据集ORL4个训练样本/类 5个训练样本/类CMU9个训练样本/类 14个训练样本/类PCA+LPP85.50±2.49(65)89.95±1.46(70)52.06±1.07(70)62.82±1.47(70)PCA83.92±1.69(60)88.05±2.11(60)29.54±0.53(70)38.09±0.61(70)PCA+LDA92.00±2.16(39)94.35±2.08(30)74.04±1.44(45)83.84±1.21(45)PCA+NPE90.96±1.91(40)93.65±2.53(50)71.09±1.24(50)82.14±0.77(60)PCA+NFSE92.67±1.24(45)94.95±0.69(55)74.40±0.78(45)83.71±0.97(55)PCA+NL-IANFSE92.63±1.96(55)94.90±1.55(50)82.78±0.52(70)88.82±0.57(70)

 

Table 3 Highest recognition rates and the standard derivations on the Yale B and AR databases (percent)表3 不同算法在Yale BAR上的最高识别率(%)及标准差

  

算法数据集YaleB10个训练样本/类 15个训练样本/类AR4个训练样本/类 6个训练样本/类PCA+LPP67.93±1.74(70)77.51±1.70(65)62.54±2.04(65)72.80±2.31(70)PCA54.48±2.45(70)60.96±2.36(70)46.61±0.93(70)54.82±0.84(70)PCA+LDA86.35±1.77(9)90.82±1.10(9)84.29±1.27(70)93.28±0.58(70)PCA+NPE82.28±7.25(40)84.10±9.40(50)84.32±1.41(70)91.73±0.96(70)PCA+NFSE83.39±2.22(70)89.78±1.47(45)84.57±0.98(70)93.35±0.77(70)PCA+NL-IANFSE88.20±1.01(60)93.45±1.37(70)85.64±1.27(60)93.69±0.70(70)

 

Table 4 Lowest recognition rates and the standard derivations on the ORL and CMU databases (percent)表4 不同算法在ORLCMU上的最低识别率(%)及标准差

  

算法数据集ORL4个训练样本/类 5个训练样本/类CMU9个训练样本/类 14个训练样本/类PCA+LPP56.00±5.22(5)63.85±3.61(5)13.55±0.70(5)17.56±1.28(5)PCA64.87±2.59(5)67.05±2.49(5)10.55±0.19(5)13.53±0.69(5)PCA+LDA63.29±3.66(5)75.70±2.43(5)37.80±1.97(5)49.61±3.69(5)PCA+NPE59.79±5.83(5)73.80±4.97(5)33.91±2.48(5)46.71±2.69(5)PCA+NFSE62.83±4.98(5)64.90±4.35(5)41.93±1.52(5)49.77±2.04(5)PCA+NL-IANFSE60.29±5.41(5)64.25±2.52(5)43.63±2.61(5)52.58±1.16(5)

 

Table 5 Lowest recognition rates and the standard derivations on the Yale B and AR databases (percent)表5 不同算法在Yale BAR上的最低识别率(%)及标准差

  

算法数据集YaleB10个训练样本/类 15个训练样本/类AR4个训练样本/类 6个训练样本/类PCA+LPP26.11±17.34(5)52.35±3.11(5)23.29±2.88(5)27.75±3.44(5)PCA17.81±1.42(5)18.43±1.51(5)21.59±1.02(5)25.64±0.64(5)PCA+LDA80.59±2.91(5)81.55±5.22(5)35.30±2.31(5)58.30±1.88(5)PCA+NPE37.54±29.86(5)52.69±28.38(5)32.91±1.79(5)55.85±1.84(5)PCA+NFSE69.57±4.48(5)83.14±3.15(5)34.08±1.69(5)57.41±1.64(5)PCA+NL-IANFSE72.74±2.45(5)92.12±1.53(5)32.30±1.91(5)57.43±2.20(5)

  

Figure 3 Recognition rates versus dimensionality reduction with various training samples on the ORL database图3 各个算法将ORL数据集样本降到不同维数时的识别率

  

Figure 4 Recognition rates versus dimensionality reduction with various training samples on the CMU database图4 各个算法将CMU数据集样本降到不同维数时的识别率

  

Figure 5 Recognition rates versus dimensionality reduction with various training samples on the Yale B database图5 各个算法将Yale B数据集样本降到不同维数时的识别率

  

Figure 6 Recognition rates versus dimensionality reduction with various training samples on the AR database图6 各个算法将AR数据集样本降到不同维数时的识别率

而且由表5得知,当数据集降维到5维时,NL-IANFSE还能有92.12%的较高识别率,远远优于其他算法在同等条件下的表现。

4.2.4 AR

如表3所示,当每类选取4和6个样本训练时,NL-IANFSE的最高识别率分别为85.82%和93.69%,比NFSE略高1.25%和0.34%,同时高于其他对比算法。表5列出了几种算法在AR数据集上的最低识别率,其中NL-IANFSE的识别率仍高于大多数对比算法。

5 结束语

本文以NFSE算法为基础,提出基于非线性距离和夹角组合的最近特征空间嵌入方法。该方法综合考虑了最近特征空间度量、邻近结构保留和分类程度。本文方法具有以下特点:(1)计算离散度时引入近邻线,比近邻点包含更多的类别信息;(2)将NFL度量从匹配阶段转移到训练阶段,减少了匹配时间;(3)因在高维空间中使用欧氏距离会导致样本的趋同性,NL-IANFSE使用结合类别信息的非线性距离度量方法可以很好地避免这个问题;(4)在匹配阶段,考虑样本间的相似性与它们之间夹角的关系,用结合夹角度量的最近邻分类器替换了传统的最近邻分类器,提高了匹配的准确率。实验表明,NL-IANFSE的性能优于很多经典的特征提取算法,能够达到较高的识别率。然而本文提出的NL-IANFSE方法时间花费较高,如何在提高识别率的同时降低时间复杂度将是我们进一步研究的重点。

参考文献:

[1] He X,Yan S,Ho Y,et al.Face recognition using laplacianfaces[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2005,27(3):328-340.

[2] He X,Cai D,Yan S,et al.Neighborhood preserving embedding[C]∥Proc of ICCV,2005:1208-1213.

[3] Cai D,He X,Han J,et al.Orthogonal laplacianfaces for face recognition[J].IEEE Transactions on Image Processing,2006,15(11):3608-3614.

[4] Zhang T, Fang B,Tang Y,et al.Topology preserving non-negative matrix factorization for face recognition[J].IEEE Transactions on Image Processing,2008,17(4):574-584.

[5] Roweis S T,Saul L K.Nonlinear dimensionality reduction by locally linear embedding[J].Science,2000,290(22):2323-2326.

[6] Saul L K,Roweis S T.Think globally,fit locally:Unsupervised learning of low dimensional manifolds[J].Journal of Machine Learning Research,2003,4(2):119-155.

[7] Turk M,Pentland A P.Face recognition using eigenfaces[C]∥Proc of IEEE Conference on Computer Vision and Pattern Recognition,1991:586-591.

[8] Hu H F.Orthogonal neighborhood preserving discriminant analysis for face recognition[J].Pattern Recognition,2008,41(6):2045-2054.

[9] Yan S,Xu D,Zhang B,et al.Graph embedding and extensions:General framework for dimensionality reduction[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,29(1):40-51.

[10] Belhumeur P N, Hespanha J P,Kriegman D J.Eigenfaces vs.Fisherfaces:Recognition using class specific linear projection[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2007,19(7):711-720.

[11] Li S Z. Face recognition based on nearest linear combinations[C]∥Proc of Computer Society Conference on Computer Vision and Pattern Recognition,1998:839-844.

[12] Li S Z,Lu J.Face recognition using the nearest feature line method[J].IEEE Transactions on Neural Networks,1999,10(2):439-433.

[13] Li S Z,Chan K L,Wang C L.Performance evaluation of the nearest feature line method in image classification and retrieval[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2000,22(11):1335-1339.

[14] Chen Y N,Han C C,Wang C T,et al.Face recognition using nearest feature space embedding[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2011,33(6):1073-1086.

[15] Tao Jian-wen,Chung F L,Wang Shi-tong,et al.Label propagation using sparse approximated nearest feature space embedding[J].Journal of Software,2014,25(6):1239-1254.(in Chinese)

[16] Liu Jia-min,Luo Fu-lin,Huang Hong,et al.Locally linear embedding algorithm based on fusion angle measurement[J].Opto-Electronic Engineering,2013,40(6):97-105.(in Chinese)

[17] Ridder D D,Kouropteva O,Okun O,et al.Supervised locally linear embedding[C]∥Proc of Joint International Conference on Artificial Neural Networks and Neural Information Processing,2003:333-341.

[18] Zhang Shi-qing, Li Le-min,Zhao Zhi-jin.Speech emotion recognition based on all improved supervised manifold learning algorithm[J].Journal of Electronics & Information Technology,2010,32(11):2724-2729.(in Chinese)

[19] Sim T,Baker S,Bsat M.The CMU pose,illumination,and expression database[J].IEEE Transactions on Pattern Analysis and Machine Intelligence,2003,25(12):1615-1618.

附中文参考文献:

[15] 陶剑文,Chung F L,王士同,等.稀疏近似最近特征空间嵌入标签传播[J].软件学报,2014,25(6):1239-1254.

[16] 刘嘉敏,罗甫林,黄鸿,等.融合夹角度量的局部线性嵌入算法[J].光电工程,2013,40(6):97-105.

[18] 张石清,李乐民,赵知劲.基于一种改进的监督流形学习算法的语音情感识别[J].电子与信息学报,2010,32(11):2724-2729.

 
杜弘彦,王士同,李滔
《计算机工程与科学》2018年第05期文献

服务严谨可靠 7×14小时在线支持 支持宝特邀商家 不满意退款

本站非杂志社官网,上千家国家级期刊、省级期刊、北大核心、南大核心、专业的职称论文发表网站。
职称论文发表、杂志论文发表、期刊征稿、期刊投稿,论文发表指导正规机构。是您首选最可靠,最快速的期刊论文发表网站。
免责声明:本网站部分资源、信息来源于网络,完全免费共享,仅供学习和研究使用,版权和著作权归原作者所有
如有不愿意被转载的情况,请通知我们删除已转载的信息 粤ICP备2023046998号