基于层次的聚类算法Word格式.docx
- 文档编号:5191275
- 上传时间:2023-05-04
- 格式:DOCX
- 页数:51
- 大小:737.66KB
基于层次的聚类算法Word格式.docx
《基于层次的聚类算法Word格式.docx》由会员分享,可在线阅读,更多相关《基于层次的聚类算法Word格式.docx(51页珍藏版)》请在冰点文库上搜索。
BIRCH是用聚类中心和半径来代表聚类,具有一定的处理噪音的能力,而且它是一种增量聚类方法,它不要求所有数据一次性读入内存,所以空间复杂度低,但是BIRCH算法无法发现任意形状和大小的聚类。
关键词:
聚类分析;
层次聚类;
CUREBRICH
ResearchandImplementationofthealgorithmbasedonhierarchicalclustering
SunXili
(CollegeofInformationScienceandEngineering,JishouUniversity,Jishou,Hunan
416000)
Abstract:
Clusteringanalysisisanessentialfieldindataminingandalsoimportantmeansandmethodofdataclassificationorgroupingprocessing.Clusteranalysishasplayedanimportantroleinawiderangeofdatapartitioningareas.Clusteringalgorithmscanbedividedintothemethodbasedonhierarchy,themethodsbasedonthepartition,thegrid-basedmethods,thedensity-basedmethodandthemodel-basedmethod.
Hierarchicalclusteringalgorithmisamainstayoftheclusteringanalysisinpracticalapplicationforitssimplealgorithmideas,andsuitableforlargeamountsofdataclustering.Thispaperfocusesonthehierarchicalclusteringalgorithmanalysisandresearch,expoundsCUREandBIRCHalgorithmbasedonhierarchyclusteringalgorithm,andimplementsthetwoalgorithmsandtheirclusteringresultsaregiven.
CUREalgorithmistheuseoftheclusteringoftherepresentativepoint,itsolvedtheproblemofthepreferenceofsphericalandsimilarsize,clusteringcanbefoundwithanysizeandshape,butalsomorerobustindealingwiththeisolatedpoint.BIRCHisusingtheclusteringcenterandradiustodelegateclustering,alsowiththeabilitytohandlingnoise,anditisakindofincrementalclusteringmethod,itdoes'
trequirealldataisreadintomemoryinasingle,sothespacecomplexityislow,buttheBIRCHalgorithmcannotfindclusteringwithanyshapeandsize.
Keywords:
Clusteranalysis;
Hierarchicalclustering;
CURE;
BRICH
第一章绪论1
1.1课题的研究意义1
1.2课题的主要研究内容1
1.3论文内容和结构安排2
第二章聚类算法研究3
2.1聚类分析概述3
2.2主要聚类算法分类4
2.3聚类分析中的数据类型6
2.4聚类算法的质量评价标准9
2.5小结10
第三章基于层次的聚类算法的分析11
3.1层次聚类方法概述11
3.2层次聚类方法存在的不足13
第四章基于层次聚类方法的实现15
4.1CURE算法15
4.2BIRCH算法22
4.5小结38
第五章总结39
致谢40
参考文献41
第一章绪论
1.1课题的研究意义
随着信息技术和数据库技术的迅猛发展,人们可以非常方便地存储和获取大量的数据。
面对数据的日新月异,人们利用信息技术生产和搜集数据的能力大幅度提高,大量的数据库被用于科学研究、政府办公、商业管理和工程开发等等,以前的的数据分析工具(如管理系统)只能进行一些表层的处理(如统计、查询等),而不
能获得数据之间存在的隐含的信息和内在的关联。
为了摆脱“数据丰富,知识贫乏”和困境,人们迫切的需要一种能够自动地智能地把数据转换成有用信息和知识的工具和技术,这种对强有力的数据分析工具的迫切需要使得数据挖掘技术应运而生,并得以蓬勃发展,越来越显示出其强大的生命力。
聚类分析是根据一批样品的多个观测指标,找出能够试验样品或变量之间相似程度的统计量,并以此为依据,采用某种聚类算法,将所有样品或变量分别聚合到不同的类中,使同一类中的个体有较大的相似性,不同类中的个体差异较大。
聚类分析是一种无监督的学习方法,它已经被广泛地应用于统计学、机器学、空间数据库、生物学以及市场营销等领域,聚类分析还可以作为独立的数据挖掘工具来了解数据分布,或者作为其他数据挖掘算法(如关联规则、分类等)的预处理步骤。
聚类算法可以分为基于的层次方法、基于划分的方法、基于网格的方法、基于密度的方法和基于模型的方法[2]。
聚类分析已经被广泛的研究了许多年,其中的层次聚类分析是聚类分析中极为重要的一个研究方向。
它是由一系列的划分多步完成分类,而不是在一步以内将数据分成n类。
层次聚类分为两种,分裂的(divisive)层次聚类和凝聚的(agglomerative)层次聚类。
层次聚类算法由于要使用距离矩阵,所以它的时间和空间复杂性都很高,几乎不同在大数据集上使用,而且它在算法执行过程中,一量一个合并或分裂被执行,就不能修正。
但是层次聚类算法没有使用准则函数,它所潜含的对数据结构的假设更少,所以它的通用性更强。
为了将层次聚类算法应用在大规模的数据集上,许多研究者将采样技术,分块技术及数据压缩技术结合到层次算法中。
典型的有:
BIRCHCUREChameleon
1.2课题的主要研究内容
本文主要研究层次聚类算法,在系统地归纳层次聚类分析方法的一般原理、一般方法以及相关技术的基础上,分析BIRCHCURE等层次聚类算法,并对它们加以
实现并进行聚类分析。
具体的来说,本论文所研究的主要内容如下:
(1)分析和研究聚类算法。
(2)在了解基于层次的聚类分析方法的基础上研究BIRCHCUREI法,并加以实现。
1.3论文内容和结构安排
本文共分为四章,各章的主要内容如下:
第一章绪论。
主要介绍的是论文的研究背景和现实意义。
第二章聚类算法研究。
主要介绍了聚类技术的相关概念。
第三章层次聚类方法。
主要传统的层次聚类方法,对其进行了详细的分析,并给出了传统的层次聚类方法存在的缺陷。
第四章详细分析了层次聚类的各种算法,并阐述了BIRCHCURE勺思想和实现。
第二章聚类算法研究
本章系统地归纳聚类分析的基本概念及存在的问题,讨论聚类分析的数据结构和数据类型,确定聚类的准则。
2.1聚类分析概述
聚类分析是一种重要的人类行为。
早在孩提时代,一个人就通过不断地改进下意识中的聚类模式来学会如何区分猫和狗,或者动物和植物。
聚类分析已经广泛地应用在许多应用中,包括心理学和其他社会科学、生物学、统计学、模式识别、信息检索、机器学习和图像处理等领域。
聚类即是将数据对象分组成为多个类或簇,在同一个簇中的对象之间具有较高的相似度,而不同簇中的对象差别较大。
聚类是一个无监督的学习过程,它同分类的根本区别在于:
分类是需要开始知道所根据的特征,而聚类是要准确的找到这个数据特征,因此在许多的应用中,聚类分析更是定义为一种数据预处理的过程,是进一步解析和处理数据的根本。
例如,在生物学上,聚类能用于成功的推导植物和动物分类,对基因进行分类,获得对种群中固有结构的认识。
聚类在地球观测数据库中相似地区的确定,洗车保险持有者的分组,及根据房子的类型,价值,和地理位置对一个城市中房屋的分组上也可以发挥作用。
聚类也能用于对Web上的文档进行分类,以发现信息。
作为一个数据挖掘的功能,聚类分析可以作为一个获得数据分布情况,观察每个簇的特征和对特定类进一步分析的独立工具。
通过聚类能够了解密集和稀疏的区域,找到全局的分布模式以及数据的两个属性之间的互相联系等等⑴。
但是聚类分析是一个富有挑战性的研究领域,它的潜在应用提出了各种特殊的要求,它们主要表现在[2]:
(1)可伸缩性。
由于数据产生和收集技术的进步,数吉字节、数太字节甚至数拍字节的数据集起来越普遍。
在大数据集合样本上进行聚类可能会导致有偏的结果。
一般而言,聚类算法的时间复杂度太高,这要求在多项式的时间内完成,所以像这样算法的可伸缩性会更加好。
如今已经做了很多的尝试,比如增量式挖掘,可靠的采样,数据挤压等等。
例如BIRCH算法中使用CF树就属于数据挤压技术。
(2)用于决定输入参数的领域知识最小化:
许多聚类算法在聚类分析中要求用户输入一定的参数,例如希望产生簇的数目。
聚类结果对于输入参数十分敏感。
参数通常很难确定,特别是对于包含高维对象的数据集来说。
这样不仅加重了用户的负担,也使得聚类的质量难以控制。
(3)处理“噪声”的能力:
在现实应用的绝大多数数据都可能包含有噪声数据,例如:
孤立点、未知数据、空缺或者错误数据等。
(4)对于输入记录的顺序不敏感:
许多聚类算法,如层次聚类算法对于输入数据的顺序是敏感的。
对输入数据的顺序敏感的算法对于同一个数据集,当以不同的顺序提交给算法时,得到的结果可能差别很大。
研究和数据输入顺序不敏感的算法具有重要的意义。
(5)高维度(highdimensionality):
一个数据库或者数据仓库可能包含若干维或者属性。
许多聚类算法擅长处理低维的数据,可能只涉及两到三维。
人类的眼睛在最多三维的情况下能够很好地判断聚类的质量。
在高维空间中聚类数据对象是非常有挑战性的,特别是考虑到这样的数据可能分布非常稀疏,而且高度偏斜。
(6)基于约束的聚类:
现实世界的应用可能需要在各种约束条件下进行聚类。
假设你的工作是在一个城市中为给定数目的自动提款机选择安放位置,为了作出决定,你可以对住宅区进行聚类,同时考虑如城市的河流和公路网,每个地区的客户要求等情况。
要找到既满足特定的约束,又具有良好聚类特性的数据分组是一项具有挑战性的任务。
(7)可解释性和可用性:
用户希望聚类结果是和可用的、可理解的和可解释的。
也就是说,聚类分析极有可能需要和特定的语义解释和应用联系起来。
而且应用目标如何影响聚类方法的选择也是一个相当重要的研究课题。
2.2主要聚类算法分类
目前聚类算法有很多种,算法的选择取决于聚类的目的和应用以及数据的类型。
传统的聚类算法可以分为五类:
划分方法、层次方法、基于网格方法、基于模型方法和基于密度方法⑻。
2.2.1划分的方法(PartitioningMethod)
给定一个数据库包含N个数据对象以及数目K的即将生成的簇,一个划分类的算法将对象分为K个划分(k<
=n),其中,这里的每个划分分别代表一个簇。
通常会使用一个划分规则(通常称为相似度函数,similarityfunction)。
而传统的划分方
法有Kmeans方法和K-medoids以及它们的改进算法。
Kmeans方法采用簇中对象的平均值当做参照点,而K-medoids方法不采用簇中
对象的平均值作为参照点,而是选用簇中位置最中心的对象作为参照点。
因此,孤立点数据和“噪声”对K-medoids方法的影响相对来说比Kmeans方法小的多,但是复杂度要比Kmeans方法高。
PAM(PartitioningaroundMedoids,黑线k-medoids的划分)算法对孤立点和
“噪声”数据不敏感,并且可以知道由它所发现的簇与聚类数据的输入顺序无关,能够处理不同类型的数据点。
PAM寸小的数据集合非常有效,但对大的数据集合没有良好的可伸缩性。
2.2.2层次的方法(HierarchicalMethod)
基于层次的方法对给定数据对象集合进行层次的分解。
根据层次的分解如何形成,层次的方法可以分为凝聚的和分裂的。
凝聚的方法,也称为自底向上的方法,一开始将每个对象作为单独的一个簇,然后相继地合并相近的对象或组,直到所有的组合并为一个(层次的最上层)或者达到一个终止条件。
分裂的方法,也称为自顶向下的方法,一开始将所有的对象置于一个聚类中。
在迭代的每一步中,一个簇被分裂为更小的簇,直到最终每个对象在单独的一个簇中,或者达到一个终止条件。
层次方法的缺陷在于,一旦一个步骤(合并或分裂)完成,它就不能被撤消。
这个严格规定是必要的,由于不需要担心组合数目的不一样的选择,计算代价相对会很小。
但是该技术的重要的问题是它不能更正错误的决策。
因此人们提出了很多的改进方法,一种是加强对象间“连接”的分析,如CURESChameleon;
另一种是迭代的重定位和综合层次聚类方法,如BIRCH这几种算法都会在第三章中重点分析并实现。
2.2.3基于密度的方法(Density-basedMethod)
绝大多数划分方法基于对象之间的距离进行聚类。
这样的方法只能发现球状的簇,而在发现任意形状的簇上遇到了困难。
随之提出了基于密度的另一类聚类方法,其主要思想是:
只要临近区域的密度(对象或数据点的数目)超过某个阈值,就继续聚类。
也就是说,对给定类中的每个数据点,在一个给定范围的区域中必须至少包含某个数目的点。
这样的方法可以用来过滤“噪声”孤立点数据,发现任意形状的聚类。
具有代表性的基于密度的聚类方法有DBSCAJN它根据一个密度阈值来调控
簇的增长。
另一个基于密度的聚类方法是OPTICS它为自动的交互的聚类分析计算
一个聚类顺序。
2.2.4基于网格的方法(Grid-basedMethod)
在聚类分析方法中,基于网格的聚类方法采用了多给网格数据结构。
它将空间划分为有限数目的单元,以构成一个可以进行聚类分析的网格结构,几乎所有的聚类操作都在网格上进行。
这种方法的主要优点是处理速度快,其处理时间独立平均数据对象的数目,仅依赖于量化空间中每一维上的单元数目。
常用的基于网格聚类算法有STING(StatistiealInformationGrid)算法和CLIQUE(ClusteringInQuest)
算法。
STING算法是一种基于网格多分辨率的聚类方法,它将空间划分为方形单元,不
同层次的分辨率与这些不同层次的方形单元相对应,方形单元存放方差、均值、最大值、最小值等统计信息。
CLIQUE是在高维空间中基于网格和密度的聚类方法。
CLIQUE寸数据的输入顺序不敏感,也不需要假设任何特定的数据分布,输入数据量大小与时间复杂度呈线性关系,它能自动发现最高维中所存大的密集聚类,当数据维数发生变化时具有较好
的可扩展性,缺点是在追求方法简单化的同时降低了聚类的精度。
225基于模型的方法(Model-basedMethod)
基于模型的方法为每个聚类假定了一个模型,然后找出数据对给定模型的最佳拟合。
一个基于模型的算法可能通过构建反映数据点空间分布的密度函数来定位聚类,并且基于标准的统计数字来自动决定聚类的数目,考虑“噪声”数据或孤立点,从而产生健壮的聚类。
基于模型的方法主要有两类:
神经网络方法和统计学方法。
基于统计学的聚类方法最著名的是COBWEB法。
COBWE是一种简单流行的增量概念聚类算法,它的输入对象用(分类属性,值)来描述。
COBWE以一个分类树的
形式创建层次聚类。
COBWE算法不需要用户提供相应的参数可以自动修正划分中聚类簇的数目。
然而它也有局限性。
首先,假设在每个属性上的概率分布是彼此独立的。
由于属性经常是相关的,这个假设并不总是成立。
此外,聚类的概率分布描述使得存储聚类和更新非常昂贵。
而且,分类树对于偏斜的输入数据不是高度平衡的,它可能导致时间和空间复杂性的剧烈变化。
各种聚类算法的适用领域及时间空间复杂度的比较如表2-1所示。
表2-1各种聚类算法的指标比较[4]
算法
时间复杂度
空间复杂度
适合的数据集
适合领域
CURE
O(n2)
O(n)
大数据集
任意形状
Chameleon
PAM
小数据集
凸形或球形
CLARA
CLARANS
O(n)
DBSCAN
O(nlogn)
OPTICS
WaveCluster
COBWEB
2.3聚类分析中的数据类型
聚类分析不仅可以揭示数据间内在的联系和区别,同时也可以为进一步的数据分析与知识发现提供重要的依据,主要用于进行数据探索,并给出数据描述,而且还可以作为数据预测、内容检索、模式识别等其它方面应用的前期准备工作
2.3.1数据的表示
在聚类分析中有许多不同的数据类型。
假设要聚类的数据集合包含n个数据对
象,这些数据对象可能表示人、房子、文档、国家等。
许多聚类算法选择如下两种代表性的数据结构:
1.数据矩阵(datamatrix)
用p个变量来表示n个对象,例如用年龄、身高、体重、性别、种族等属性来表现对象“人”。
这种数据结构是关系表的形式,或者是看成n*p(n个对象*p个变量)
的矩阵,如图2.1所示。
图2.1数据矩阵
2.相异度矩阵(dissimilaritymatrix)
存储n个对象两两之间的近似性,表现形式是一个n*n维的矩阵,如图2.2所示
「0■
"
(2,1)0
刃3,1)d(3,2)0
•••
■••
d(n,1)d(%2)……0
在这里d(i,j)是对象i和对象j之间相异性的量化表示,通常它是一个非负的数值,当对象i和j越相似或相近,其值就越接近0,两个对象越不同,其值越大。
如果数据是用数据矩阵的形式表现的,在使用聚类算法之前需要将其转化为相异度矩阵。
232数据的类型
下面将讨论如何计算区间标度变量,二元变量,标称型,序数型,比例标度型以及混合类型的变量描述的数据对象之间的差异值。
利用数据对象差异值就可以对对象进行聚类分析了。
1•区间标度变量,线性标度的连续变量
为了将数据划分成不同的的类别,必须定义差异度或相似性的测试来度量同一类别之间数据的相似性和不同类别数据的差异性。
同时要考虑到数据的多个属性属性使用的是不同的度量单位,这些将直接影响到聚类分析的结果,为了避免对度量单位选择的依赖,数据应当标准化。
数据标准化常用的方法是将原来的度量值转换为无单位的值。
给定一个具有p个属性的变量f的度量值,可以进行如下的变换:
(1)计算平均的绝对偏差(meanabsolutedeviation)Sf如公式2.1所示。
其中,x1f,xnf是f的n个度量值,mf是f的平均值,如公式2.2所示。
1
Sf(|x1f—mf|•|x2f—mf•以时—mf|)(公式2.1)
n1
mf=(X1fX2f……_Xnf)(公式2.2)
n
(2)计算标准化的度量值,或Z-SCOR如公式2.3所示。
Xif-mf
Zif=--(公式2.3)
这个平均的绝对偏差sf比标准的偏差对于孤立点具有更好的鲁棒性。
在计算平均绝对偏差时,度量值与平均值的偏差没有被平方,因此孤立点的影响在一定程度上被减小了。
虽然存在更好的对偏差的度量方法,例如中值绝对偏差(medianabsolutedeviation),但采用平均绝对偏差的优点在于孤立点的z-score值不会太小,因此孤立
点仍可以被发现。
2.二元变量
一个二元变量只有两个状态:
0或1,0表示该变量为空,1表示该变量存在。
二元变量又分为对称和不对称,对称的二元变量的两个状态有相同的权重。
如果两个状态的输出不是同样重要,那么该二元变量的相似度称为恒定的相似度。
3.标称型、序数型和比例标度型变量
(1)标称变量
标称变量是二元变量的推广,它可以具有多于两个的状态值。
例如:
map_color
是一个标称变量,它有五个状态:
红色、黄色、绿色、粉红色和蓝色。
假设一个标称变量的状态数目是M每一个状态值可以用字母,符号或者一组整数来表示,则两个对象i和j之间的相异度可以用简单匹配方法来计
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 基于 层次 算法