模式识别聚类分析.ppt

上传人:本田雅阁 文档编号:2596066 上传时间:2019-04-15 格式:PPT 页数:49 大小:471.51KB
返回 下载 相关 举报
模式识别聚类分析.ppt_第1页
第1页 / 共49页
模式识别聚类分析.ppt_第2页
第2页 / 共49页
模式识别聚类分析.ppt_第3页
第3页 / 共49页
亲,该文档总共49页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《模式识别聚类分析.ppt》由会员分享,可在线阅读,更多相关《模式识别聚类分析.ppt(49页珍藏版)》请在三一文库上搜索。

1、第二章 聚类分析,分类与聚类的区别,分类:用已知类别的样本训练集来设计分类器(监督学习) 聚类(集群):用事先不知类别的样本,而利用样本的先验知识来构造分类器(无监督学习),2.1聚类分析的概念,基本思想: 对一批没有标明类别及类数的模式样本集,根据模式间的相似程度,按照物以类聚、人以群分的思想,将相似的模式分为一类,不相似的分为另一类。,特征的类型,1.低层特征: 无序尺度:有明确的数量和数值。 有序尺度:有先后、好坏的次序关系,如酒 分为上,中,下三个等级。 名义尺度:无数量、无次序关系,如有红, 黄两种颜色 2. 中层特征:经过计算,变换得到的特征 3. 高层特征:在中层特征的基础上有目

2、的的经过运 算形成 例如:椅子的重量=体积*比重 体积与长,宽,高有关;比重与材料,纹理,颜色有关。这里低、中、高三层特征都有了。,方法的有效性,特征选取不当 特征过少 特征过多 量纲问题,主要聚类分析技术,谱系法(系统聚类,层次聚类法) 基于目标函数的聚类法(动态聚类) 图论聚类法 模糊聚类分析法,2.2模式相似度度量,各种距离表示相似性: 绝对值距离 已知两个样本 xi=(xi1, xi2 , xi3,xin)T xj=(xj1, xj2 , xj3,xjn)T, 欧几里德距离 明考夫斯基距离 其中当q=1时为绝对值距离,当q=2时为欧氏距离, 切比雪夫距离 q趋向无穷大时明氏距离的极限情

3、况 马哈拉诺比斯距离 其中xi ,xj为特征向量, 为协方差。使用的条件是 样 本符合正态分布, 夹角余弦 为xi xj的均值 即样本间夹角小的为一类,具有相似性 例: x1 , x2 , x3的夹角如图: 因为x1 , x2 的夹角小,所以x1 , x2 最相似。,x2,x3, 相关系数 为xi xj的均值 注意:在求相关系数之前,要将数据标准化,2.3类的定义和与类间距离,用距离进行定义类(书19),非监督学习方法分类,1、基于概率密度函数估计的直接方法 2、基于样本间相似性度量的间接聚类方法,两类间的距离,1、最短距离:两类中相距最近的两样品间的距离。,2、最长距离 :两类中相距最远的两

4、个样本间的距离。 3、中间距离:最短距离和最长距离都有片面性,因此有时用中间距离。设1类和23类间的最短距离为d12,最长距离为d13, 23类的长度为d23,则中间距离为: 上式推广为一般情况:,4、重心距离:均值间的距离 5、类平均距离:两类中各个元素两两之间的距离平方相加后取平均值,6、 离差平方和: 设N个样品原分q类,则定义第i类的离差平方和为: 离差平方和增量:设样本已分成p,q两类,若把p,q合为r类,则定义离差平方:,聚类准则,类内距离越小越好 类间距离越大越好 一些准则函数,聚类分析三要素,相似性测度 聚类准则 聚类算法,2.4 聚类的算法,(1)根据相似性阈值和最小距离原则

5、的简单聚类法 (2)按照最小距离原则不断进行两类合并的方法 (3)依据准则函数的动态动态聚类算法,系统聚类的算法,谱系聚类的算法 原理、步骤 例:如下图所示 1、设全部样本分为6类, 2、作距离矩阵D(0),3、求最小元素: 4、把1,3合并7=(1,3) 4,6合并8=(4,6) 5、作距离矩阵D(1),6、若合并的类数没有达到要求,转3。否则停止。 3、求最小元素: 4、8,5,2合并, 9=(2,5,4,6), 分解聚类,分解聚类:把全部样本作为一类,然后根据相似性、相邻性分解。 目标函数 两类均值方差,N:总样本数, :1类样本数 :2类样本数,,分解聚类框图:,对分算法:略 例:已知

6、21个样本,每个样本取二个特征,原始资料矩阵如下表:,解:第一次分类时计算所有样本,分别划到,时的E值,找出最大的。 1、开始时,,2、分别计算当 划入,时的E值,把 划入,时有,然后再把 划入 时对应的E值,找出一个最大的E值。 把 划为 的E值最大。 ,E(1)=56.6,再继续进行第二,第三次迭代 计算出 E(2) , E(3) , ,次数 E值 1 56.6 2 79.16 3 90.90 4 102.61 5 120.11 6 137.15 7 154.10 8 176.15 9 195.26 10 213.07 11 212.01,第10次迭代 划入 时,E最大。于是分成以下两类:

7、 ,每次分类后要重新计算 的值。可用以下递推公式:, 动态聚类兼顾系统聚类和分解聚类,一、动态聚类的方法概要 先选定某种距离作为样本间的相似性的度量; 确定评价聚类结果的准则函数; 给出某种初始分类,用迭代法找出使准则函数取极值的最好的聚类结果。,动态聚类框图,二、代表点的选取方法:代表点就是初始分类的聚类中心数k 凭经验选代表点,根据问题的性质、数据分布,从直观上看来较合理的代表点k; 将全部样本随机分成k类,计算每类重心,把这些重心作为每类的代表点;, 按密度大小选代表点: 以每个样本作为球心,以d为半径做球形;落在球内的样本数称为该点的密度,并按密度大小排序。首先选密度最大的作为第一个代

8、表点,即第一个聚类中心。再考虑第二大密度点,若第二大密度点距第一代表点的距离大于d1(人为规定的正数)则把第二大密度点作为第二代表点,否则不能作为代表点,这样按密度大小考察下去,所选代表点间的距离都大于d1。d1太小,代表点太多,d1太大,代表点太小,一般选d12d。对代表点内的密度一般要求大于T。T0为规定的一个正数。 用前k个样本点作为代表点。,三、初始分类和调整 选一批代表点后,代表点就是聚类中心,计算其它样本到聚类中心的距离,把所有样本归于最近的聚类中心点,形成初始分类,再重新计算各聚类中心,称为成批处理法。 选一批代表点后,依次计算其它样本的归类,当计算完第一个样本时,把它归于最近的

9、一类,形成新的分类。再计算新的聚类中心,再计算第二个样本到新的聚类中心的距离,对第二个样本归类。即每个样本的归类都改变一次聚类中心。此法称为逐个处理法。 直接用样本进行初始分类,先规定距离d,把第一个样品作为第一类的聚类中心,考察第二个样本,若第二个样本距第一个聚类中心距离小于d,就把第二个样本归于第一类,否则第二个样本就成为第二类的聚类中心,再考虑其它样本,根据样本到聚类中心距离大于还是小于d,决定分裂还是合并。,最佳初始分类。 如图所示,随着初始分类k的增大,准则函数下降很快,经过拐点A后,下降速度减慢。拐点A就是最佳初始分类。,四、C平均算法 例:已知有20个样本,每个样本有2个特征,数

10、据分布如下图,第一步:令C=2,选初始聚类中心为,第三步:根据新分成的两类建立新的聚类中心,第四步: 转第二步。 第二步:重新计算 到z1(2) , z2(2) 的距离,把它们归为最近聚类中心,重新分为两类,,第三步,更新聚类中心,第四步, 第二步, 第三步,更新聚类中心,迭代自组织数据分析算法(ISOData),方法步骤 (1)任选初始值(中心),C个 (2)将N个样本分到C类中 (3)计算距离: (4)要求对中心分裂,合并新的中心 (5)判断。,上机作业,已知50个样本(随机产生),每个样本2个特征(取值在010),数据如下: 用c平均算法和ISODATA算法分类,编程上机,并画出分类图。,

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 其他


经营许可证编号:宁ICP备18001539号-1