《各种聚类算法介绍及对比.docx》由会员分享,可在线阅读,更多相关《各种聚类算法介绍及对比.docx(7页珍藏版)》请在第一文库网上搜索。
1、一一层次聚类1、层次聚类的原理及分类1)层次法(HierarChiCaIInethOdS)先计算样本之间的距离。每次将距离最近的点介并到同一个类。然后,再计算类与类之间的距离,将距离最近的类合并为一个大类。不停的合并,直到合成其中类与类的距离的计算方法有:最短距离法,最长距离法,中间距离法,类平均法等。比如最短距离法,将类与类的距离定义为类与类之间样本的最短距离。层次聚类算法根据层次分解的顺序分为:自下底向上和自上向下,即凝聚的层次聚类算法和分裂的层次聚类算法(agg1omcrative和divisive),也可以理解为自下而上法(bottOnI-UP)和自上而下法(top-down)0日下而
2、上法就是一开始每个个体(Objee【)都是一个类,然后根据1inkage寻找同类,一成一个“类”。自上而下法就是反过来,一开始所有个体都属于一个“类”,然后根据1inkage排除异己,最后每个个体都成为一个“类”,这两种路方法没有孰优孰劣之分,只是在实际应用的时候要根据数据特点以及你想要的“类”的个数,来考虑是自上而下更快还是自下而上更快。至于根据1inkage判断类”的方法就是最短距离法、最长距离法、中间距离法、类平均法等等(其中类平均法往往被认为是最常用也最好用的方法,一方面因为其良好的单调性,另一方面因为其空间扩/浓缩的程度适中)。为弥补分解与合并的不足,层次合并经常要与其它聚类方法相结
3、合,如循环定位。2)Hierarchica1methods中比较新的算法有BIRCH(Ba1ancedIterativeReducingandC1usteringUsingHierarchies利用层次方法的平衡迭代规约和聚类)主要是在数据量很大的时候使川,而“数据;IJZi首先利用树的结构对对象集进行划分,然后再利用其0它聚类方法对这些聚类进行优化;ROCK(AHierarchica1C1usteringxMgorithmforgorica1八I1ribu1eS)上要川在CaIoKcrica11.;Chame1eon(Hierarchica1C1usteringA1gorithmUsingD
4、ynamicModeIing)里用到的1inkage是kNN(k-nearest-neighbor)算法,并以此构建一个graph,Chame1eon的聚类效果被认为非常强大,比BIRCH好用,但运算复杂度很高,0(rT2).2、层次聚类的流程凝聚型层次聚类的策略是先将每个对象作为一个簇,然后合并这些原子簇为越来越大的簇,直到所有对象都在一个簇中,或者某个终结条件被满足。艳大多数层次聚类属凝聚型层次聚它们只是在簇间相1:斤不同。这里给出采用最小距离的凝聚层次聚类算法流程:(1)将每个对象看作一类,计算两两之间的最小距离;(2)将距离最小的两个类合并成一个新类;(3)重新计算新类与所有类之间的距
5、离;(4)重复(2)、(3),直到所有类最后合并成一类。另外我们可以看出凝聚的层次聚类并没有类似基本K均值的全局目标函数,没有局部极小问题或是很难选择初始点的问题。合并的操作往往是最终的,一旦合并两个簇之后就不会撤销。当然其计算存储的代价是昂贵的。3、层次聚类的优缺点优点:1,距离和规则的相似度容易定义,限制少;2,不需要预先制定聚类数;3,可以发现类的层次关系;4,可以聚类成其它形状缺点:1,计算复杂度太高;2,奇异值也能产生很大影响;3,算法很可能聚类成链状r语言中使用hc1;t(d,methodcomp1ete”,members-NU11):进行层次聚类。d为距离矩阵;method表示类
6、的合并方法,sing1e最短距离法,comp1ete最长距离法,median中间距离法,mcquitty相似法,average类平均法,centroid重心法,ward离差平方和法;members为NU11或d长度的矢量。二、划分聚类法k-means基于划分的方法(Partition-basedmethods):其原理简单来说就是,想象你有一堆散点需要聚类,想要的聚类效果就是类的点都足够近,类间的点都足够远”。首先你要确定这堆散点最后聚成几类,然后挑选几个点作为初始中心点,再然后依据预先定好的启发式算法(heuristica1gorithms)给数据点做迭代重置(iterativere1OCa
7、tiOn),克到最后到达“类的点都足够近,类间的点都足够远”的目标效果。Partition-basedmethods聚类多迪最的数据集,但我们也不知道“中等”到底有多“中”,所以不妨理解成,数据集越大,越有可能陷入局部最小。1、Kmeans算法的原理k-ans算法以k为参数,把n个对象分成k个簇,使簇具有较高的相似度,而簇间的相似度较低。k-means算法的处理过程如下:忤先,随机地选择k个月象,每个对象初始地代表了一的平均值或中心,即选择K个初始质心;对剩余的每个对象,根据其与各簇中心的距离,将它赋给最近的簇;然后重新计算每个簇的平均值。这个过程不断重复,直到准则函数收敛,直到质心不发生明显
8、的变化,通常,采用平方误差准则,误差的平方和SSE作为全局的目标函数,即最小化每个点到最近质心的欧几里得距离的平方和。此时,门的为值。选择K个点作为初始质心repeat将每个点指派到最近的质心,形成K个簇重新计算每个簇的质心unti1簇不发生变化或达到最大迭代次数K-Means算法的详细过程从上图中,我们可以看到,A,B,C,D,E是五个在图中点。而灰色的点是我们的种子点,也就是我们用来找点群的点。有两个种子点,所以K=2。然后,K-Means的算法如下:随机在图中取K(这里K=2)个种子点。然后对图中的所有点求到这K个种子点的距离,假如点Pi离种子点Si最近,那么Pi属于Si点群。(我.们可
9、以看到A.B属于上面的种子点,C.D.E属于下面中部的种子点)接下来,我们要移动种子点到属于他的“点群”的中心。(见图上的第三步)然后重复第2)和第3)步,直到,种子点没有移动(我们可以看到图中的第四步上面的种子点聚合了A,B,C,下面的种子点聚合了D,E)o聚类的效果如下图,折线是历次循环时3个簇的质心的更新轨迹,黑点是初始质心:我们查看基本K均值算法实现步骤及上面的聚类效果可以发现,该聚类算法将所有数据点都进行了指派,不识别燮音点。另外选择适当的初试质心是基本K均值过程的关键。2、k均值的优缺点及分类优点:1,简单,易于理解和实现;2,时间复杂度低缺点:1) kmeans要手工输入类数目,
10、对初始值的设置很敏感:所以有了k-means+.inte11igentk-meansgenetick-means;12) k-means对呼,和离样值IPW敏感.所以有了k-medoids和k-medians;3) k-ecins只用于numerica1类型数据,不适川于categorica1类型数据,所以k-modes;4) k-means不能解决非凸(non-COnVeX)数据,所以有了kerne1k-means5) k-means主要发现圆形或者球形簇,不能识别非球形的簇。3、k-means与DBSCAN的区别k-means聚类算法的初始点选择不稳定,是随机选取的,这就引起聚类结果的不稳
11、定。k-means属于动态聚类,往往聚出来的类有点圆形或者椭圆形。kmeans对于圆形区域聚类效果较好,dbscan基于密度,对于集中区域效果较好。对于不规则形状,kmeans全无法用,dbscan可以起到很好的效果。4、k-means注意问题1)如何确定kmenas算法首先选择K个初始质心,其中K是用户指定的参数,即所期望的簇的个数。这样做的前提是我们已经知道数据集中包含多少个簇,但很多情况下,我们并不知道数据的分布情况,实际上聚类就是我们发现数据分布的一种手段。如何有效的确定K值,这里大致提供几种方法:与层次聚类结合2经常会产生较好的聚类结果的一个有趣策略是,首先采用层次凝聚算法决定结果粗
12、的数目,并找到一个初始聚类,然后用迭代重定位来改进该聚类。稳定性方法3稳定性方法对一个数据集进行2次重采样产生2个数据子集,再用相同的聚类算法对2个数据子集进行聚类,产生2个具有k个聚类的聚类结果,计算2个聚类结果的相似度的分布情况。2个聚类结果具有高的相似度说明k个聚类庾映了稳定的聚类结构,其相似度可以用来估计聚类个数。采用次方法试探多个k,找到合适的k值。系统演化方法3系统演化方法将一个数据集视为伪热力学系统,当数据集被划分为K个聚类时称系统处于状态Ko系统由初始状态K=I出发,经过分裂过程和合并过程,系统将演化到它的稳定平衡状态Ki,所对应的聚类结构决定了最优类数Ki。系统演化方法能提供
13、关于所有聚类之间的相对边界距离或可分程度,适用于明显分离的聚类结构和轻微重叠的聚类结构。使用canopy算法进行初始划分4基于CanopyMethod的聚类算法将聚类过程分为两个阶段Stage!,聚类最耗费计算的地方是计算对象相似性的时候,CanopyMethod在第一阶段选择简单、计算代价较低的方法计算对象相似性,将相似的对象放在一个子集中,这个子集被叫做CanOPy,通过一系列计算得到若干CarIOPy,Canopy之间可以是重叠的,但不会存在某个对象不属于任何CanOPy的情况,可以把这一阶段看做数据预处理;Stage2、在各个Canopy使用传统的聚类方法(如K-IneanS),不属于
14、同一Canopy的对象之间不进行相似性计算。从这个方法起码可以看出两点好处:首先,Canopy不要太大且Canopy之间重叠的不要太多的话会大大减少后续需要计算相似性的对象的个数;其次,类似于K-means这样的聚类方法是需要人为指出K的值的,通过Stage1得到的Canopy个数完全可以作为这个K值,一定程度上减少了选择K的盲目性。其他方法如贝叶斯信息准则方法(B1C)可参看文献5。2)初始质心的选取选择适当的初始质心是基本kmeans算法的关键步骤。常见的方法是随机的选取初始质心,但是这样簇的质呈常常很差。处理选取初始质心问II的一种常用技术是:多次运行,每次使用一组不同的随机初始质心,然
15、后选取具有最小SSE(误差的平方和)的簇集。这种策略简单,但是效果可能不好,这取决于数据集和寻找的簇的个数。第二种有效的方法是,取一个样本,并使用层次聚类技术对它聚类。从层次聚类中提取K个簇,并用这些簇的质心作为初始质心。该方法通常很有效,但仅对下列情况有效:(1)样本相对较小,例如数百到数千(层次聚类开销较大);(2)K相对于样本大小较小第三种选择初始质心的方法,随机地选择第一个点,或取所有点的质心作为第一个点。然后,对于每个后继初始质心,选择离已经选取过的初始质心最远的点。使用这种方法,确保了选择的初始质心不仅是随机的,而且是散开的。但是,这种方法可能选中离群点。此外,求离当前初始质心集最
16、远的点开销也非常大。为了克服这个问题,通常该方法用于点样本。由于离群点很少(多了就不是离群点了),它们多半不会在随机样本中出现。计算量也大幅减少。第四种方法就是上面提到的canopy算法。3)距离的度量常用的距离度量方法包括:欧几里得距离和余弦相似度。两者都是评定个体间差异的大小的。欧几I受指标不同单位刻度的影响,所以般需要先进行,化,同时跑离战大,个体间差异越大;空间向量余弦夹角的相似度度量不会受指标刻度的影响,余弦值落于区间-1,1,值越大,差异越小。但是针对具体应用,什么情况下使用欧氏距离,什么情况下使用余弦相似度?从几何意义上来说,n维向疑空间的一条线段作为底边和原点组成的三角形,其顶角大小是不确