更全的杂志信息网

基于样本与特征双加权的自适应FCM聚类算法

更新时间:2009-03-28

0 引 言

聚类作为一种非监督学习的方法,是数据挖掘的一个重要研究方向,广泛应用于数据挖掘、模式识别、机器学习、图像处理等多个领域[1-4]。模糊C-均值聚类算法是一种基于软划分的聚类方法,在样本进行聚类时能够综合考虑与其他类别之间的关系,使每个样本都以一定的隶属度从属于所有类别。与传统聚类方法相比,模糊聚类分析能够更加客观地反应现实情况,因而成为一个受关注的研究热点[5]

经典的FCM算法对噪声点较为敏感,且隐含假设要分析样本的各维属性特征和样本对聚类的贡献均匀。然而实际应用中,一些数据集的样本对聚类的作用不一样,例如,离群样本点对聚类结果的影响要比其他常规样本点的影响小;且属性特征对聚类的重要性不一致,甚至有些特征起到冗余的作用。针对这些问题,学者们提出了FCM的改进算法,Keller等[6]通过引入每个类别的属性特征权重,提出了一种特征加权FCM算法;Chan[7]提出了一种局部特征加权HCM(local feature weighting hard c-means, LWHCM)算法,可以自适应赋予不同的类别以不同的特征权重;Huang等[8]引入特征权重,将FCM聚类算法中隶属函数的求解方法巧妙地计算,提出了WK-Means 聚类算法,该算法原理简单,算法复杂度低,适合样本数较大的数据聚类;Parvin等[9]提出一种自适应局部加权模糊聚类算法,可以处理不平衡的数据集;Zhou等[10]提出了一种最大熵加权核聚类算法,该算法不仅具有清晰的物理意义,而且对于非球簇状分布的样本集,聚类效果也较好。有些学者提出了基于样本权重的FCM算法,如Yu等[11]引入最大信息熵,提出了样本加权聚类算法 ,该算法可以自适应地赋予样本权重;Yang等[12]提出了基于样本加权的广义正则化模糊聚类算法。还有些学者提出了一些基于权重的混合算法,如Zeng等[13]提出了一种加权的半监督FCM算法,将样本的先验知识转化为监督对象的隶属度约束条件,根据监督对象的“典型性”赋予其权重,该算法能有效地引导聚类过程,当监督对象信息有误时,能有效地减少有误监督对象对整体聚类效果的影响;Xenaki等[14]提出了自适应的可能聚类算法,该算法可以自适应地确定聚类的数目,对噪声数据较不敏感。这些改进算法都在一定程度上提升了FCM算法的聚类效果,但是都没有综合考虑样本总体贡献度不同及各属性特征重要性不同对聚类结果的影响,而且权重需要事先给定,无法将权重和聚类相融合,难以满足自适应的要求。

1.2 能促进学生对课程内容的建构 笔记有助于学生注意和发现知识的内在联系,有利于学生将新知识纳入原有的认知结构中。

考虑到样本具有不同的贡献度且各维属性特征对聚类的不同重要性,本文引入特征权重最大信息熵,提出一种改进算法—基于样本与特征双加权的自适应FCM聚类算法(An adaptive FCM clustering algorithm with sample and feature weight, SWEFCM),将样本权重、特征权重和目标函数相融合,根据最小二乘原理,优化目标函数,采用迭代方法动态计算各个特征对不同聚类类别的权重系数和各个样本对聚类的重要性权重值,最终得到各个样本点以及各类别属性特征的权重系数。实验结果表明,该算法不仅比传统的聚类算法具有更好的聚类精度,而且可以分析各样本及各维属性特征对聚类的贡献程度。

1 相关概念

模糊C-均值聚类算法是一种基于目标函数的聚类方法,根据最小二乘原理,采用目标函数的迭代优化来实现划分,最终得到每个样本点的归属。信息熵在信息论中是随机事件不确定性的一种度量方式,一个系统中信息熵越低,此系统的状态越有序。在加权的FCM算法中引入信息熵,不仅可以使得权重具有清晰的物理意义,而且可以提高聚类结果的准确性。

1.1 信息熵及其定义

一是重大规划编制取得新成果。《南水北调东中线一期工程受水区地下水压采总体方案》《全国大型水库建设总体安排意见》已经国务院批复。《全国水中长期供求规划》《全国现代灌溉发展规划》《全国水土保持规划》《全国水资源保护规划》《全国地下水利用与保护规划》《全国水利定点扶贫专项规划》《全国中小河流治理重点县综合整治试点规划》《全国水利现代化规划纲要》《全国江河重要河道采砂管理规划》等一系列重大规划已经或基本完成编制工作。这些事关全局性、战略性的重大规划,为加快水利基础设施建设、加快水利改革发展、保障经济社会可持续发展奠定了坚实基础。

 

(1)

定义2 设样本集为X={x1,x2,···,xn},∀xi=(xi1,xi2,···,xid)∈Rdc为预定的聚类数目,Un×c阶的隶属度矩阵,Vc×d阶的聚类中心矩阵, vjm表示第j个类别的第m个特征的聚类中心值,uij表示第i个样本隶属于第j个聚类中心的隶属度,则聚类的目标函数为:

对于那些类别属性特征不平衡的数据,传统的模糊聚类算法容易导致局部最优,造成聚类的精度不高。为此本文引入信息熵,目标函数根据全局最优化,对各个类别的属性特征权重进行迭代,自适应地分配权重的大小,从而得到较为准确的权重值。对应的信息熵可表示为:

 

(2)

式中:wjm表示第j个类别的第m个特征权重,为了便于计算,本文使用以e为底的对数。

(1)临安市某污水处理目前使用处理工艺为倒置型A2/O工艺,出水NH3-N的潜力值为0.5mg·L-1。通过良好的运行管理,通过生物脱氮工艺,出水NH3-N浓度可以稳定在0.5mg·L-1以下,远低于一级A标准值,表明除NH3-N的潜力值巨大。

引入熵的目的就是在构造特征加权目标函数属性特征之间变化差异越大时,熵尽可能极大化,且目标函数的间距极大化使得权重值更接近某个固定的值。因此,通过目标函数间距最大化和极大熵,在两者中进行平衡,从而使聚类加权有更好的适应性。

读高中的时候,你也知道,为考大学,没敢谈,那时候,有一个学期,我和付玉是同桌,她身上有股芙蓉花的香味,不瞒你说,我喜欢她,追过她,给她写过几封情书,但是没追上。读大二这年,开学第一天,这天下午,我正在教室里上自习,这时候一个同学叫我,他说门外有人找,是个超级漂亮女生,你交狗屎桃花运了。我对他笑笑。

1.2 FCM算法

可以证明F(U,V,W,E)是关于迭代次数k的单调不增函数,说明SWEFCM算法是收敛的。

在数据挖掘中,熵的大小反映了系统中数据分布的均匀程度。熵的值越大,表明数据分布越平衡;熵的值越小,表明数据分布越分散。对于多属性特征数据来说,可以用熵加权来衡量属性特征在聚类结果中的影响,权重越大说明聚类结果包含的信息越有用,权重越小说明聚类结果包含无关信息。

 

(3)

式中:∂∈[1,+)是一个控制聚类结果的模糊程度常数,∂越大,紧密的模糊性越大[15],∂的最佳取值范围为[1.5,2.5];minF(U,V)为误差平方和目标函数,它的值反映在某种差异性定义下的类内紧凑程度,minF(U,V)越小,聚类越紧密;式(1)中的uijvjm的值用拉格朗日函数进行推导,可得式(4)和式(5):

 

(4)

 

(5)

经典的FCM算法对离群点较为敏感,易出现局部最优的情况,且该算法假设样本总体及各属性特征对聚类的贡献均匀。然而,一些数据集的各个样本和各属性特征对聚类的贡献不均匀,例如:离群样本点对聚类结果的贡献要比其他常规样本点的贡献小,有些属性特征在聚类的过程中起到冗余的作用。

2 基于样本与特征双加权的自适应FCM聚类算法

进行聚类分析时,数据集中某个样本周围的其他样本往往分布不均匀,因而对聚类结果的贡献度也常常不一样。样本加权就是为了克服样本贡献不均匀对聚类结果的影响,加快聚类收敛速度,通过给每个样本整体添加一个权重值来实现。其中,噪声和离群数据一般被赋予一个较小的权重值,用于降低其参与聚类的程度,即减少甚至消除它们对聚类结果的影响。类似地,为了体现样本属性特征对类别的重要程度,将特征权重引入到对应的目标函数中,赋予各维属性特征不同的权重值。本文以特征权重信息熵作为代价函数,将样本权重与特征权重进行有机结合,提出了基于样本与特征双加权的自适应FCM聚类算法(SWEFCM)。

2.1 双加权目标函数

目标函数F(U,V,W,E)的最小化是一个受约束的非线性最优化问题,与传统的FCM算法类似,用Picard迭代方法解决此问题。首先固定VWE,寻找使得目标函数严格局部最小化的充要件U;再固定VWU,寻找使得目标函数严格局部最小化的充要条件E;然后固定UEV,寻找使得目标函数严格局部最小化的充要条件W;最后固定UEW,寻找使得目标函数严格局部最小化的充要条件V

 

(6)

式中 :Wc×d阶的属性特征权重系数矩阵;wjm表示第j个类别中第m个特征的权重值;En×1阶的样本权重系数矩阵;eti表示样本权重;γ∈(0,+)是一个调节系数,能够起到调整和平衡式(6)所示目标函数的前后两项和的作用,使得目标函数达到最优。

1.5 统计学分析 采取SHEsis在线软件对试验数据进行连锁不平衡以及HWE检验分析,对早产儿脑瘫组以及对照组之间ATG5基因中的5个多态性位点的单倍型频率、等位基因频率以及基因型频率进行比较分析。计量资料表示,组间比较采用单因素方差分析或重复测量的方差分析,组间两两比较采用LSD-t检验;计数资料(%)表示,χ2检验,P<0.05为差异有统计学意义。

算法的约束条件主要包括隶属度约束样本权重约束以及特征权重约束因此,SWEFCM算法可以归结为如下的优化问题:

 

(7)

在FCM算法的基础上,改进的SWEFCM算法引入特征权重wjm和样本权重ti(i=1,2,···,n)。改进算法的目标函数设计为:

根据拉格朗日乘法对式(7)进行求解,可得:

 

定义1 信息熵:设一个系统可能处于N种不同的状态,系统可能独立演变成的第i种状态表示为xi,出现的概率为p(xi),且满足条件0 p(xi) 1和则信息熵的定义为:

(8)

式中λjφφi是拉格朗日乘子。

一阶导数为0的地方是目标函数取极值的必要条件,对参数φiuij求偏导数,得到方程:

 

(9)

可得隶属度uij的值为:

 

(10)

F(U) 是对U的二阶偏导数在X的Hessian矩阵是正定对角矩阵,可证明式(10)是目标函数最小化的充分条件。所以固定VW,式(10)是目标函数严格局部最小化的充要条件隶属度uij值的迭代式。

同理,可得样本权重eti、特征权重wjm、聚类中心vjm值的迭代式分别为:

林晓等认为“应用”能力指的是“不断增强的运用恰当语言形式表达自己观点的能力和情感意向”[11]61-65。经过上述3个环节的学习任务,学习者在一定程度上内化了所学语篇的结构特征和语言表达形式,他们便可以进行同类型文章的独立写作。借助“iWrite”“冰果作文”等在线写作平台,课后的独立写作任务包括以课内或教师指定的课外补充阅读材料为基础,进行缩写、续写、补写、改写、换位写、仿写等多种形式的写作训练。

 

(11)

 

(12)

 

(13)

模糊C-均值聚类(FCM)算法是用隶属度确定聚类程度的一种基于目标函数的聚类算法。

2.2 SWEFCM算法

根据权重系数wjm取值的不同,聚类中心vjm的取值也不同,可得:

 

(14)

为了使目标函数获得最优解,需要合理的聚类中心,根据文献[16]所提出的方法,将聚类中心调整为以下迭代式:

 

(15)

式中s(s≠0)是样本权重的影响指数,与模糊程度指数∂的作用相似,根据文献[16],s的最优取值范围为|s|≥1。

基于设计的目标函数(式)和聚类中心(式),SWEFCM算法的核心流程可描述为以下伪代码:

输入: 包含n个数据对象的数据集,聚类个数c,最大迭代次数max_k,参数∂、γs,以及算法停止时最小阈值ε

输出: 使目标函数达到最小的c个聚类。

式(6)中的两项和,第一项是一个非负的类内距离项,控制着聚类簇的形状和大小;第二项是一个非正的特征权重信息熵项,调整着所有特征的最优权重分配。SWEFCM算法中,为了使目标函数F(U,V,W,E)值最小,应选择合适的γ值,尽量极小化第一项(类内分散程度)的值、极大化第二项(特征权重信息熵)的值,并进行优化配置,以使两项和最小。

第一步: 随机选择c个样本作为初始的聚类中心,初始的特征权重1/d,样本权重1/n,分别使用式(10)和式(11)计算U(k)E(k),令k=1;

第一,正确梳理“质”与“量”之间的关系。在林政资源管理时,在推动林业经济长远发展的同时,还需要确保林业资源的数量与质量处于均衡发展的状态之内,优化林业资源自身的结构,注重保护不可再生的林业资源,合理利用可再生林业资源。

第二步: 使用以下迭代公式进行循环,逼近最优解;

(1)使用式(12)更新属性权重矩阵W(k)

既然已经入了行,就要“摸一下”这一行的深浅,如今在家政服务行业里扑腾了18年的明宏,从毛头小伙子变成了中年大叔,而他的雷厉风行在业界也是声名远播。明宏始终秉持一条原则:“客户的需求就是市场!”他坚信:付出必有回报!

(2)使用式(13)更新聚类中心矩阵V(k)

(3)使用式(11)更新样本权重矩阵E(k)

(4)使用式(10)更新聚类隶属度矩阵U(k)

(5)k=k+1;

上述研究表明,数字学术的出现对英国高校图书馆的服务产生了一定的影响,英国高校图书馆界逐步意识到数字学术能力的重要性,以及开展数字学术支持的重要性,并通过设置相应职位、开展具体服务等方式支持数字学术。英国高校图书馆的数字学术服务实践,对我们多角度地了解数字学术环境及高校图书馆的数字学术服务发展方向具有积极的借鉴意义。本文对英国高校图书馆开展的数字学术服务实践进行调查分析,以期为我国高校图书馆的相关服务提供参考。

第三步: 若满足<εk>max_k时算法结束,否则转第二步继续执行。

2.3 算法分析

与传统算法一样,改进的算法SWEFCM至少需要两个参数:一是聚类数目c,二是样本权重的影响指数ss是一个控制算法柔性的参数,如果s过大,则聚类效果会很不理想,而如果s过小则算法会接近传统的C均值聚类算法。不考虑算法参数选优的计算开销,SWEFCM算法的CPU时间主要花费在:循环迭代以满足目标函数或迭代次数k超过给定的最大迭代次数阈值max_k。对于规模为n、特征为d的数据集X={x1,x2,…,xn},每次循环迭代,更新c个类别的特征权重W(k)的时间开销是c×d,更新c个类别的聚类中心V(k)的总时间开销是n×d,更新c个类别的所有样本权重E(k)的时间开销是n;更新聚类隶属度U(k)的时间开销是n×c,因而一次迭代的时间开销为max{n×c,n×d},而算法最坏情况下需要迭代max_k次,因此,SWEFCM算法的时间复杂度为max_k×max{n×c,n×d}。

自体输血主要包括贮存式自体输血、稀释式自体输血和回收式自体输血3种方式。对于含有高频抗原抗体的稀有血型患者来说,自体输血有助于手术的进行。

上述分析中,SWEFCM算法虽然引入了样本权重,但并未增加算法的时间复杂度,其效率与传统的FCM算法一样。但考虑样本权重SWEFCM算法在聚类效果方面具有明显的优势,不但考虑了特征间的不平衡性及每个样本对聚类的贡献程度,而且引入了特征权重最大信息熵规则,既可以评估特征权重赋值的有效性,又具有清晰的物理意义,从而能够获得较好的聚类结果。

3 实验及结果分析

3.1 数据说明

本文使用5个来自UCI的标准机器学习数据集(http://www.ics.uci.edu/~mlearn/MLRepo sitory.html),对所提出SWEFCM算法的聚类效果进行验证。为了对算法的聚类有效性作出合理的评价,采用如下的聚类有效性指标聚类精度(Accuracy of clustering results,ACC)和模糊聚类有效性指标划分系数(Partition coefficient,PC)两种评价指标对聚类算法的性能进行分析。

上一次被问类似的问题,是在新东方附近的茶餐厅,熙来攘往,隔邻多有洋人,外文单词单句混在中文的洪流里,像甜点上嵌的杏仁。与我同桌的是个15岁的女孩子,托福刚考了113。我问:“听得懂?”她眉睫一拍,是微风下的檐雨,笑容里全是自负。

 

(16)

 

(17)

式中:Cj是第j个类中正确识别的对象的数目;n是数据集中所有对象的数目;uij表示样本xi隶属于第j个聚类中心的隶属度。ACC的值越大,表明算法聚类结果越准确。PC旨在度量各聚类间的“重叠”程度,其取值范围是[1/c,1],值越接近1,聚类就越明显。

表1为5个数据集的概要信息,可以看出,5个数据集分别由不同的数量样本数和特征数组成,这确保了算法面向数据集的多样性,进而保证了实验结果的普遍性。本文所有实验是在同一台PC机上,使用R提供的数据挖掘算法环境下完成的,将SWEFCM算法与FCM算法、WFCM算法[6]、SW-FCM[11]算法进行对比,以验证SWEFCM算法的效果。因为聚类中心的选取会在一定程度上影响最终的聚类结果,因此,为了减少算法对初始聚类中心的敏感性,实验时将所有算法都随机初始化100次,以降低甚至消除聚类中心对聚类结果的影响。

 

表1 实验数据集

 

Table 1 Experimental data set

  

序号数据库样本数特征数类别数1Iris150432UKM258543Haberman306324Ionosphere3513325Zoo101167

参数设定与执行样本权重影响指数s和调节系数γ是SWEFCM算法的两个重要参数,目前没有严格的数学理论说明如何选取合适的参数值。本文以Iris数据为例,说明参数的变化。由表2可以看出,样本权重影响指数s取不同值时,根据给定的聚类评价标准选择最优的调节系数γ取值也不同,即不同的数据集,样本权重影响指数s和调节系数γ取不同组合值时,可以取得给定标准的最优聚类结果。在实际应用中,建议选择代表性的值进行计算,然后根据给定的标准选择最优的值。为了与其它算法进行客观比较,对比分析时,将SWEFCM算法的样本权重影响指数s和调节系数γ分别取值为-1和1。

 

表2 SWEFCM算法在γ取不同值时Iris数据集上的聚类结果

 

Table 2 Clustering results of SWEFCM algorithm on Iris data sets with different values of γ

  

γs=-2s=-1s=1s=2ACCPCACCPCACCPCACCPC0.50.960 00.861 60.960 00.858 00.960 00.804 20.900 00.822 610.960 00.864 50.966 70.860 60.973 30.859 30.973 30.859 21.50.960 00.864 60.966 70.855 80.973 30.859 30.973 30.859 020.966 70.864 60.966 70.857 60.973 30.859 30.980 00.861 72.50.966 70.864 80.960 00.863 50.973 30.862 40.980 00.853 530.966 70.865 10.960 00.870 00.966 70.852 10.980 00.861 73.50.960 00.870 70.966 70.838 40.966 70.852 10.980 00.861 740.960 00.870 70.960 00.870 00.973 30.862 40.980 00.861 74.50.960 00.870 70.960 00.870 00.980 00.861 70.980 00.861 750.960 00.870 70.960 00.863 50.980 00.861 70.980 00.861 7

实验时,待比较的4个聚类算法的通用参数都取为相同的值。其中,算法停止时最小阈值ε取值为0.000 01,最大迭代次数max_k的取值为100,模糊程度常数α的取值为2[17]。WFCM算法在5个数据集上的权重影响指数t均取值为2[6];Yu等[11]认为SW-FCM算法中的平衡系数ζ最佳选取区间为(0.001,0.3),本文在5个数据集上的平衡系数ζ均取值为0.01。

3.3 结果分析

选取Iris和UKM两种典型数据集的样本权重系数,计算得到Iris数据集各样本对应的权重值如图 1(a)所示,UKM数据集各样本对应的权重值如图 1(b)所示。由图 1(a)和图 1(b) 所示的样本权重数据得知,两个数据集的各个样本对聚类贡献程度不同。因此,对样本贡献不均匀的数据集,应该对样本的贡献度加以区分,充分考虑各个样本对聚类结果的影响。传统的FCM算法忽略了样本对聚类作用的差异度,致使频繁出现数据样本误判的情况,真实聚类结果与算法的聚类结果之间存在一定的差距。

 
  

图1 Iris和UKM数据集样本权重

 

Fig.1 Sample weight of Iris and UKM data sets

运用聚类算法FCM、WFCM、SW-FCM、SWEFCM对5个数据集进行聚类划分,所得聚类结果如表3所示。从表3可见,除Haberman数据集之外,SWEFCM算法聚类结果的划分系数值均大于经典的FCM算法、WFCM算法和SW-FCM算法的聚类结果,说明对于相同数据集的相同聚类数目,SWEFCM算法的聚类结果更加明确。从图2可见,SWEFCM算法的聚类精度均高于经典的FCM算法、WFCM算法和SW-FCM算法的聚类精度,但对于不同的数据集,SWEFCM算法的聚类精度的改善程度是不一样的。从表3可得,SWEFCM算法的聚类精度,与FCM、WFCM、SW-FCM三种算法相比,在Iris数据集上的聚类精度比分别提高了约7.34%、0.67%、7.34%,在UKM 数据集上的聚类精度比分别提高了约17.83%、17.44%、12.40%,在Haberman数据集上的聚类精度比分别提高了约13.40%、13.73%、10.79%,在Ionosphere数据集上的聚类精度比分别提高了约5.13%、4.84%、5.41%,在Zoo数据集上的聚类精度比分别提高了约17.82%、6.93%、17.82%。

由表1可知,治疗组与对照组相比,临床有效率分别为90.0%和72.5%,差异有统计学意义(P<0.05)。

 

表3 各算法的聚类精度和划分系数结果比较

 

Table 3 Comparison of clustering results with different algorithms in term of ACC and PC

  

数据集FCMWFCMSW-FCMSWEFCMIrisACC0.893 30.960 00.893 30.966 7PC0.783 20.831 80.783 00.861 8UKMACC0.469 00.472 90.523 30.647 3PC0.304 90.645 60.269 60.743 5HabermanACC0.509 80.506 50.535 90.643 8PC0.739 80.846 20.635 80.803 9IonosphereACC0.709 40.712 30.706 60.760 7PC0.651 20.651 50.652 40.821 0ZooACC0.792 10.901 00.792 10.970 3PC0.479 70.699 10.457 90.765 8

  

图2 各算法的聚类精度曲线

 

Fig.2 Clustering accuracy curves of various algorithms

由此可见,SWEFCM算法在处理数据间有交叠的数据集时,其聚类精度高于经典模糊聚类算法,相比其它算法能获得更好的数据集划分,而且可以分析各样本及各维属性特征对聚类的贡献程度。

4 结 论

为了克服传统的模糊聚类算法无法较好地处理样本对聚类的贡献不均匀的数据集、无法获得最优聚类的问题,提出了一种基于样本与特征双加权的自适应FCM聚类算法(SWEFCM)。此算法对模糊聚类的目标函数进行重新设计,并在聚类过程中采用了迭代的方法对各属性特征对聚类类别的权重系数以及样本对聚类的重要性权重值进行动态计算,综合考虑了不同样本的不同贡献度和各个特征的重要性对聚类结果的影响。最后,通过理论分析发现SWEFCM算法与传统的模糊聚类算法具有一样的时间复杂度,此外,通过UCI标准机器学习数据集,将SWEFCM算法与FCM、WFCM、SW-FCM三种算法的聚类效果进行比较,发现对样本分布相对集中且对聚类贡献不均匀的数据集,SWEFCM算法能有效反映样本贡献的不均匀性和属性特征间的不平衡性,具有更好的聚类精度。SWEFCM算法对于样本数量太少或者属性特征维数过大的样本分布稀疏的数据集,并不能获得最优的聚类结果。本文是在不同参数值的条件下多次运行算法,在此基础上选取参数的一般取值作为实验参数,而初始聚类中心则通过随机初始化获得,因此,在聚类算法中如何选取合适的参数值、合适的初始聚类中心等还有待进一步研究。

为此,工程项目划分必须坚持由项目法人组织监理、设计及施工等单位进行,并确定主要单位工程、主要分部工程、重要隐蔽单元工程和关键部位单元工程。项目法人在主体工程开工前将项目划分表及说明书面报相应质量监督机构确认。工程实施过程中,需对单位工程、主要分部工程、重要隐蔽单元工程和关键部位单元工程的项目划分进行调整时,项目法人要重新报送工程质量监督机构进行确认。

参考文献

[1] RAHMAN M G, ISLAM M Z. Missing value imputation using a fuzzy clustering-based EM approach [J]. Knowledge and Information Systems, 2016, 46(2): 1-34.

[2] ZHOU K, YANG S, SHAO Z. Household monthly electricity consumption pattern mining: a fuzzy clustering-based model and a case study [J]. Journal of Cleaner Production, 2017, 141: 900-908.

[3] SABITHA A S, MEHROTRA D, BANSAL A. Delivery of learning knowledge objects using fuzzy clustering [J]. Education and Information Technologies, 2016, 21(5): 1329-1349.

[4] ABDELAZIZ F B, LIMAM O. Multiobjective fuzzy clustering with coalition formation: the case of brain image processing [J]. Information Systems and Operational Research, 2017, 55(1): 52-69.

[5] CHEN D, ZHANG T J, ZHAO L F. An adaptive cluster validity index based on fuzzy set [C].Industrial Control and Electronics Engineering, IEEE, 2012: 1824-1827.

[6] KELLER A, KLAWONN F. Fuzzy clustering with weighting of data variables [J]. International Journal of Uncertainty Fuzziness and Knowledge-Based Systems, 2001, 8(2000): 735-746.

[7] CHAN E Y, CHING W K, NG M K, et al. An optimization algorithm for clustering using weighted dissimilarity measures [J]. Pattern Recognition, 2003, 37(5): 943-952.

[8] HUANG J Z, XU J, NG M, et al. Computational methods of feature selection, weighting method for feature selection in K-means [M]. Lodon: Chapman & Hall/Crc Press, 2008: 193-209.

[9] PARVIN H, MINAEI-BIDGOLI B. A clustering ensemble framework based on selection of fuzzy weighted clusters in a locally adaptive clustering algorithm [J]. Pattern Analysis and Applications, 2015, 18(1): 87-112.

[10] ZHOU J, CHEN L, CHEN C L P, et al. Fuzzy clustering with the entropy of attribute weights [J]. Neurocomputing, 2016, 198: 125-134.

[11] YU J, YANG M S, LEE E S. Sample-weighted clustering methods [J]. Computers and Mathematics with Applications, 2011, 62(5): 2200-2208.

[12] YANG M S, PAN Y S. Sample-weighted fuzzy clustering with regularizations [J]. World Academy of Science, Engineering and Technology, 2013, 7(2): 966-969.

[13] ZENG S, TONG X, SANG N, et al. A study on semi-supervised FCM algorithm [J]. Knowledge and Information Systems, 2013, 35(3): 585-612.

[14] XENAKI S D, KOUTROUMBAS K D , RONTOGIANNIS A A. A novel adaptive possibilistic clustering algorithm [J]. IEEE Transactions on Fuzzy Systems, 2015, 24(4): 791-810.

[15] 杨夏, 戴臻. 基于直觉模糊熵的目标函数聚类 [J]. 计算机工程与设计, 2009, 30(9): 2277-2278.

[16] TANG C, WANG S, XU W. New fuzzy C-means clustering model based on the data weighted approach [J]. Data and Knowledge Engineering, 2010, 69(9): 881-900.

[17] HU Y, ZUO C, YANG Y, et al. A robust cluster validity index for fuzzy C-means clustering [C].International Conference on Transportation, Mechanical, and Electrical Engineering. Changchun: IEEE, 2011: 448-451.

 
林甲祥,吴丽萍,巫建伟,张泽均
《黑龙江大学自然科学学报》2018年第02期文献

服务严谨可靠 7×14小时在线支持 支持宝特邀商家 不满意退款

本站非杂志社官网,上千家国家级期刊、省级期刊、北大核心、南大核心、专业的职称论文发表网站。
职称论文发表、杂志论文发表、期刊征稿、期刊投稿,论文发表指导正规机构。是您首选最可靠,最快速的期刊论文发表网站。
免责声明:本网站部分资源、信息来源于网络,完全免费共享,仅供学习和研究使用,版权和著作权归原作者所有
如有不愿意被转载的情况,请通知我们删除已转载的信息 粤ICP备2023046998号