六章节聚类分析.ppt

上传人:本田雅阁 文档编号:3173779 上传时间:2019-07-20 格式:PPT 页数:74 大小:1.85MB
返回 下载 相关 举报
六章节聚类分析.ppt_第1页
第1页 / 共74页
六章节聚类分析.ppt_第2页
第2页 / 共74页
六章节聚类分析.ppt_第3页
第3页 / 共74页
六章节聚类分析.ppt_第4页
第4页 / 共74页
六章节聚类分析.ppt_第5页
第5页 / 共74页
点击查看更多>>
资源描述

《六章节聚类分析.ppt》由会员分享,可在线阅读,更多相关《六章节聚类分析.ppt(74页珍藏版)》请在三一文库上搜索。

1、第六章 聚类分析,6.1 引言 6.2 距离和相似系数 6.3 系统聚类法 6.4 动态聚类法,6.1 引言,判别分析和聚类分析是两种不同目的的分类方法,它们所起的作用是不同的。 判别分析方法假定组(或类)已事先分好,判别新样品应归属哪一组,对组的事先划分有时也可以通过聚类分析得到。 聚类分析:将分类对象分成若干类,相似的归为同一类,不相似的归为不同的类。 聚类分析分为Q型(分类对象为样品)和R型(分类对象为变量)两种。,相似性的不同定义,6.2 距离和相似系数,相似性度量:距离和相似系数。 距离常用来度量样品之间的相似性,相似系数常用来度量变量之间的相似性。 样品之间的距离和相似系数有着各种

2、不同的定义,而这些定义与变量的类型有着非常密切的关系。,变量的测量尺度,通常变量按测量尺度的不同可以分为间隔、有序和名义尺度变量三类。 间隔尺度变量:变量用连续的量来表示,如长度、重量、速度、温度等。 有序尺度变量:变量度量时不用明确的数量表示,而是用等级来表示,如某产品分为一等品、二等品、三等品等有次序关系。 名义尺度变量:变量用一些类表示,这些类之间既无等级关系也无数量关系,如性别、职业、产品的型号等。 本章主要讨论具有间隔尺度变量的样品聚类分析方法。,一、距离,设xij为第i个样品的第j个指标,数据矩阵列于表6.2.1。,表6.2.1 数据矩阵,距离dij一般应满足的四个条件,(i) d

3、ij0,对一切i,j; (ii) dij=0,当且仅当第i个样品与第j个样品的各变量值相同; (iii) dij=dji,对一切i,j; (iv) dijdik+dkj,对一切i,j,k。,常用的距离,1.明考夫斯基(Minkowski)距离 2.兰氏(Lance和Williams)距离 3.马氏(Mahalanobis)距离 4.斜交空间距离,1.明考夫斯基距离,第i个样品与第j个样品间的明考夫斯基距离(简称明氏距离)定义为 这里q为某一自然数。明氏距离有以下三种特殊形式: (i)当q=1时, ,称为绝对值距离,常被形象地称作“城市街区”距离; (ii)当q=2时, ,称为欧氏距离,这是聚类

4、分析中最常用的一个距离; (iii)当q=时, ,称为切比雪夫距离。,绝对值距离图示,对各变量的数据作标准化处理,当各变量的单位不同或测量值范围相差很大时,应先对各变量的数据作标准化处理。最常用的标准化处理是,令 其中 和 分别为第j个变量的样本均值和样本方差。,2.兰氏距离,当xji0,j=1,2,n,i=1,2,p时,可以定义第i个样品与第j个样品间的兰氏距离为 这个距离与各变量的单位无关。由于它对大的异常值不敏感,故适用于高度偏斜的数据。 明氏距离和兰氏距离都没有考虑变量间的相关性,因此这两种距离更适合各变量之间互不相关的情形。,3.马氏距离,第i个样品与第j个样品间的马氏距离为 其中x

5、i=(xi1,xi2, ,xip),xj=(xj1,xj2, ,xjp),S为样本协方差矩阵。 使用马氏距离的好处是考虑到了各变量之间的相关性,并且与各变量的单位无关。但马氏距离有一个很大的缺陷,就是马氏距离公式中的S难以确定。没有关于不同类的先验知识,S就无法计算。因此,在实际聚类分析中,马氏距离不是理想的距离。,名义尺度变量的一种距离定义,例6.2.1 某高校举办一个培训班,从学员的资料中得到这样六个变量:性别(x1),取值为男和女;外语语种(x2),取值为英、日和俄;专业(x3),取值为统计、会计和金融;职业(x4),取值为教师和非教师;居住处(x5),取值为校内和校外;学历(x6),取

6、值为本科和本科以下。 现有两名学员: x1=(男,英,统计,非教师,校外,本科) x2=(女,英,金融,教师,校外,本科以下) 这两名学员的第二个变量都取值“英”,称为配合的,第一个变量一个取值为“男”,另一个取值为“女”,称为不配合的。一般地,若记配合的变量数为m1,不配合的变量数为m2,则它们之间的距离可定义为 故按此定义本例中x1 与x2 之间的距离为2/3。,二、相似系数,聚类分析方法不仅用来对样品进行分类,而且可用来对变量进行分类,在对变量进行分类时,常常采用相似系数来度量变量之间的相似性。 变量之间的这种相似性度量,在一些应用中要看相似系数的大小,而在另一些应用中要看相似系数绝对值

7、的大小。 相似系数(或其绝对值)越大,认为变量之间的相似性程度就越高;反之,则越低。 聚类时,比较相似的变量倾向于归为一类,不太相似的变量归属不同的类。,相似系数一般需满足的条件,(1)cij=1,当且仅当xi=axj+b,a(0) 和b是常数; (2)|cij|1,对一切i,j; (3)cij=cji,对一切i,j。,两个向量的夹角余弦,1.夹角余弦,变量xi与xj的夹角余弦定义为 它是Rn中变量xi的观测向量(x1i,x2i,xni)与变量xj的观测向量(x1j,x2j,xnj)之间夹角ij的余弦函数,即cij(1)=cosij。,2.相关系数,变量xi与xj的相关系数为 如果变量xi与x

8、j是已标准化了的,则它们间的夹角余弦就是相关系数。,相似系数除常用来度量变量之间的相似性外有时也用来度量样品之间的相似性,同样,距离有时也用来度量变量之间的相似性。 由距离来构造相似系数总是可能的,如令 这里dij为第i个样品与第j个样品的距离,显然cij满足定义相似系数的三个条件,故可作为相似系数。 距离必须满足定义距离的四个条件,所以不是总能由相似系数构造。高尔(Gower)证明,当相似系数矩阵(cij)为非负定时,如令 则dij满足距离定义的四个条件。,6.3 系统聚类法,系统聚类法(hierarchical clustering method)是聚类分析诸方法中用得最多的一种。 基本思

9、想是:开始将n个样品各自作为一类,并规定样品之间的距离和类与类之间的距离,然后将距离最近的两类合并成一个新类,计算新类与其他类的距离;重复进行两个最近类的合并,每次减少一类,直至所有的样品合并为一类。 本节介绍的八种系统聚类方法,其区别在于类与类之间距离的计算方法不同。,一开始每个样品各自作为一类,6.3 系统聚类法,一、最短距离法 二、最长距离法 三、中间距离法 四、类平均法 五、重心法 六、离差平方和法(Ward方法) 七、系统聚类法的统一 八、类的个数,一、最短距离法,定义类与类之间的距离为两类最近样品间的距离,即,图6.3.1 最短距离法:DKL=d23,最短距离法的聚类步骤,(1)规

10、定样品之间的距离,计算n个样品的距离矩阵D(0),它是一个对称矩阵。 (2)选择D(0)中的最小元素,设为DKL,则将GK和GL合并成一个新类,记为GM,即GM= GKGL。 (3)计算新类GM与任一类GJ之间距离的递推公式为,递推公式的图示理解,最短距离法的聚类步骤,在D(0)中,GK和GL所在的行和列合并成一个新行新列,对应GM ,该行列上的新距离值由(6.3.2)式求得,其余行列上的距离值不变,这样就得到新的距离矩阵,记作D(1) 。 (4)对D(1)重复上述对D(0)的两步得D(2) ,如此下去直至所有元素合并成一类为止。,如果某一步D(m)中最小的元素不止一个,则称此现象为结(tie

11、),对应这些最小元素的类可以任选一对合并或同时合并。最短距离法最容易产生结。 由于最短距离法是用两类之间最近样本点的距离来聚的,因此该方法不适合对分离得很差的群体进行聚类,例6.3.1 设有五个样品,每个只测量了一个指标,分别是1,2,6,8,11,试用最短距离法将它们分类。 记G1=1,G2=2,G3=6,G4=8,G5=11,样品间采用绝对值距离。,表6.3.1 D(0),其中G6= G1G2,其中G7= G3G4,表6.3.2 D(1),表6.3.3 D(2),其中G6= G1G2,表6.3.4 D(3),图6.3.2 最短距离法树形图,二、最长距离法,类与类之间的距离定义为两类最远样品

12、间的距离,即,图6.3.3 最长距离法: DKL=d15,最长距离法与最短距离法的并类步骤完全相同,只是类间距离的递推公式有所不同。 递推公式:,对例6.3.1采用最长距离法,其树形图如图6.3.4所示,它与图6.3.2有相似的形状,但并类的距离要比图6.3.2大一些,仍分成两类为宜。,图6.3.4 最长距离法树形图,异常值的影响,最长距离法容易被异常值严重地扭曲,一个有效的方法是将这些异常值单独拿出来后再进行聚类。,三、中间距离法,类与类之间的距离既不取两类最近样品间的距离,也不取两类最远样品间的距离,而是取介于两者中间的距离,称为中间距离法(median method)。 设某一步将GK和

13、GL合并为GM,对于任一类GJ,考虑由DKJ、DLJ和DKL为边长组成的三角形(如下图所示),取DKL边的中线作为DMJ。DMJ的计算公式为,四、类平均法,类平均法(average linkage method)有两种定义,一种定义方法是把类与类之间的距离定义为所有样品对之间的平均距离,即定义GK和GL之间的距离为 其中nK和nL分别为类GK和GL的样品个数,dij为GK中的样品i与GL中的样品j之间的距离,如图6.3.7所示。容易得到它的一个递推公式:,图6.3.7 类平均法:DKL=(d13+d14+d15+d23+d24+d25)/ 6,另一种定义方法是定义类与类之间的平方距离为样品对之

14、间平方距离的平均值,即 它的递推公式为 类平均法较好地利用了所有样品之间的信息,在很多情况下它被认为是一种比较好的系统聚类法。,对例6.3.1采用(使用平方距离的)类平均法进行聚类。一开始将D(0)的每个元素都平方,并记作 。,表6.3.6,表6.3.7,表6.3.8,图6.3.8 类平均法树形图,表6.3.9,五、重心法,类与类之间的距离定义为它们的重心(均值)之间的欧氏距离。设GK和GL的重心分别为 ,则GK与GL之间的平方距离为 这种系统聚类法称为重心法(centroid hierarchical method),如图6.3.9所示。它的递推公式为,与其他系统聚类法相比,重心法在处理异常

15、值方面更稳健,但是在别的方面一般不如类平均法或离差平方和法的效果好。,图6.3.9 重心法:,六、离差平方和法(Ward方法),类中各样品到类重心(均值)的平方欧氏距离之和称为(类内)离差平方和。设类GK和GL合并成新类GM,则GK,GL和GM的离差平方和分别是 它们反映了各自类内样品的分散程度。,类内离差平方和的几何解释,类内离差平方和WK是类GK内各点到类重心点 的直线距离之平方和。,定义GK和GL之间的平方距离为 这种系统聚类法称为离差平方和法或Ward方法(Wards minimum variance method)。 也可表达为 离差平方和法使得两个大的类倾向于有较大的距离,因而不易

16、合并;相反,两个小的类却因倾向于有较小的距离而易于合并。这往往符合我们对聚类的实际要求。,图6.3.10 离差平方和法与重心法的聚类比较,离差平方和法的平方距离递推公式为 对例6.3.1采用离差平方和法进行聚类。,表6.3.10,表6.3.11,表6.3.12,图6.3.11 离差平方和法树形图,表6.3.13,例6.3.3 表6.3.14列出了1999年全国31个省、直辖市和自治区的城镇居民家庭平均每人全年消费性支出的八个主要变量数据。这八个变量是 x1:食品 x5:交通和通讯 x2:衣着 x6:娱乐教育文化服务 x3:家庭设备用品及服务 x7:居住 x4:医疗保健 x8:杂项商品和服务 分

17、别用最短距离法、重心法和Ward方法对各地区作聚类分析。为同等地对待每一变量,在作聚类前,先对各变量作标准化变换。,表6.3.14 消费性支出数据 单位:元,图6.3.12 最短距离法,图6.3.13 重心法,图6.3.14 离差平方和法,从这三个树形图来看,只有Ward方法较好地符合了我们的实际聚类要求,它将31个地区分为以下三类: 第类:北京、浙江、上海和广东。这些都是我国经济最发达、城镇居民消费水平最高的沿海地区。 第类:天津、江苏、云南、重庆、河北、新疆、山东、湖北、四川、湖南、福建、广西、海南和西藏。这些地区在我国基本上属于经济发展水平和城镇居民消费水平中等的地区。 第类:山西、甘肃

18、、内蒙古、辽宁、黑龙江、吉林、青海、宁夏、安徽、贵州、河南、陕西和江西。这些地区在我国基本上属于经济较落后地区,城镇居民的消费水平也是较低的。 如果分为五类,则广东和西藏将各自为一类。,七、系统聚类法的统一,Lance和Williams于1967年将(书中介绍的)八种系统聚类法的递推公式统一为: 其中K, L, , 是参数,不同的系统聚类法,它们有不同的取值。表6.3.15列出了上述八种方法四个参数的取值。,表6.3.15 系统聚类法参数表,单调性,令Di是系统聚类法中第i次并类时的距离,如果一种系统聚类法能满足D1D2D3 ,则称它具有单调性。这种单调性符合系统聚类法的思想,先合并较相似的类

19、,后合并较疏远的类。 最短距离法、最长距离法、可变法、类平均法、可变类平均法和离差平方和法都具有单调性,但中间距离法和重心法不具有单调性。,八、类的个数,如果能够分成若干个很分开的类,则类的个数就比较容易确定;反之,如果无论怎样分都很难分成明显分开的若干类,则类个数的确定就比较困难了。 确定类个数的常用方法有: 1.给定一个阈值T。 2.观测样品的散点图。 3.使用统计量。,1.给定一个阈值T,通过观测树形图,给出一个你认为合适的阈值T,要求类与类之间的距离要大于T,有些样品可能会因此而归不了类或只能自成一类。这种方法有较强的主观性,这是它的不足之处。,2.观测样品的散点图,如果样品只有两个或

20、三个变量,则可通过观测数据的散点图来确定类的个数。对于三个变量,可使用SAS软件的交互式数据分析菜单系统通过旋转三维坐标轴从各个角度来观测散点图。 如果变量个数超过三个,则可对每一可能考虑的聚类结果分别使用费希尔判别法进行降维,将所有样品的前两个或三个判别式得分制作成散点图,观测类之间是否分离得较好以决定分几类较为合适。,从散点图中进行主观聚类,观测散点图还有一个重要的用途,就是从直觉上来判断所采用的聚类方法是否合理,甚至有时直接从散点图中进行主观的分类,效果也许会好于正规的聚类方法,特别是在寻找“自然的”类方面。,寻找“自然的”类,3.使用统计量,(1)R2统计量。 (2)半偏R2统计量。

21、(3)伪F统计量。 (4)伪t统计量。,6.4 动态聚类法,动态聚类法的基本思想是,选择一批凝聚点或给出一个初始的分类,让样品按某种原则向凝聚点凝聚,对凝聚点进行不断的修改或迭代,直至分类比较合理或迭代稳定为止。类的个数k可以事先指定,也可以在聚类过程中确定。选择初始凝聚点(或给出初始分类)的一种简单方法是采用随机抽选(或随机分割)样品的方法。 动态聚类法有许多种方法,本节中,只讨论一种比较流行的动态聚类法k均值法。k均值法是由麦奎因(MacQueen,1967)提出并命名的一种算法。,k均值法的基本步骤,(1)选择k个样品作为初始凝聚点,或者将所有样品分成k个初始类,然后将这k个类的重心(均

22、值)作为初始凝聚点。 (2)对除凝聚点之外的所有样品逐个归类,将每个样品归入凝聚点离它最近的那个类(通常采用欧氏距离),该类的凝聚点更新为这一类目前的均值,直至所有样品都归了类。 (3)重复步骤(2),直至所有的样品都不能再分配为止。,最终的聚类结果在一定程度上依赖于初始凝聚点或初始分类的选择。经验表明,聚类过程中的绝大多数重要变化均发生在第一次再分配中。 例9.4.1 对例9.3.1采用k均值法聚类,指定k=2,具体步骤如下: (1) 随意将这些样品分成 两类,则这两个初始类的均值分别是5和 。 (2)计算1到两个类(均值)的欧氏距离,由于1到 的距离小于到 的距离,因此1不用重新分配,计算

23、6到两个类的距离 故6应重新分配到 中,修正后的两个类为 ,新的类均值分别为 。计算,结果8重新分配到 中,两个新类为 , ,其类均值分别为1和 。再计算 重新分配2到 中,两个新类为 ,其类均值分别为 。 (3)再次计算每个样品到类均值的距离,结果列于表9.4.1。 最终得到的两个类为1,2和6,8,11。,表6.4.1 各样品到类均值的距离,例6.4.2,对例6.3.3使用k均值法进行聚类,聚类前对各变量作标准化变换,聚类结果如下: 第类:北京、上海和浙江。 第类:广东。 第类:天津、江苏、福建、山东、湖南、广西、 重庆、四川和云南。 第类:河北、山西、内蒙古、辽宁、吉林、黑龙 江、安徽、江西、河南、湖北、海南、贵 州、陕西、甘肃、青海、宁夏和新疆。 第类:西藏。,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 其他


经营许可证编号:宁ICP备18001539号-1