模式识别聚类续精选文档.ppt
《模式识别聚类续精选文档.ppt》由会员分享,可在线阅读,更多相关《模式识别聚类续精选文档.ppt(77页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、模式识别聚类续本讲稿第一页,共七十七页 两种简单的聚类算法两种简单的聚类算法本讲稿第二页,共七十七页 两种简单的聚类算法(续)两种简单的聚类算法(续)2最大最小距离聚类算法最大最小距离聚类算法例:例:样样本分布如本分布如图图所示。所示。本讲稿第三页,共七十七页本讲稿第四页,共七十七页本讲稿第五页,共七十七页系统聚类系统聚类:先把每个样本作为一类,然系统聚类:先把每个样本作为一类,然后根据它们间的相似性和相邻性聚合。后根据它们间的相似性和相邻性聚合。相似性、相邻性一般用距离表示相似性、相邻性一般用距离表示(1)两类间的距离)两类间的距离1、最短距离:两类中相距最近的两样本间、最短距离:两类中相距
2、最近的两样本间的距离。的距离。本讲稿第六页,共七十七页 2、最长距离、最长距离 :两类中相距最远的两个样本间的距:两类中相距最远的两个样本间的距离。离。3、中间距离:最短距离和最长距离都有片面、中间距离:最短距离和最长距离都有片面性,因此有时用中间距离。性,因此有时用中间距离。设设1类和类和23类间的最类间的最短距离为短距离为d12,最长距离为,最长距离为d13,23类的长度为类的长度为d23,则,则中间距离为中间距离为d0:本讲稿第七页,共七十七页4、重心距离:均值间的距离、重心距离:均值间的距离5、类平均距离:两类中各个元素两两之间的距、类平均距离:两类中各个元素两两之间的距离平方相加后取
3、平均值离平方相加后取平均值 本讲稿第八页,共七十七页6、离差平方和:设N个样品原分q类,则定义第i类的离差平方和为:离差平方和增量:设样本已分成p,q两类,若把p,q合为r类,则定义离差平方:本讲稿第九页,共七十七页(2)系统聚类的算法)系统聚类的算法 首先将首先将m个样品自成一类,然后每次将具有最小距离个样品自成一类,然后每次将具有最小距离的两类合并,合并后重新计算类与类之间的距离,这个的两类合并,合并后重新计算类与类之间的距离,这个过程一直继续到所有样品归为一类为止。过程一直继续到所有样品归为一类为止。例:如下图所示例:如下图所示 1、设全部样本分为、设全部样本分为6类,类,本讲稿第十页,
4、共七十七页12345293116449166452543646642581192、作距离矩阵、作距离矩阵D(0)本讲稿第十一页,共七十七页3、求最小元素:4、把1,3合并7=(1,3)4,6合并8=(4,6)5、作距离矩阵D(1)728298491652544本讲稿第十二页,共七十七页6、若合并的类数没有达到要求,转3。否则停止。3、求最小元素:4、8,5,2合并,9=(2,5,4,6)本讲稿第十三页,共七十七页分解聚类分解聚类:把全部样本作为一类,然后根据相似性、相邻性分解。目标函数 两类均值方差 N:总样本数,:1类样本数 :2类样本数,本讲稿第十四页,共七十七页v分解聚类框图:初始分类调
5、整分类方案最终结果目标函数达到最优?本讲稿第十五页,共七十七页对分算法:略 例:已知21个样本,每个样本取二个特征,原始资料矩阵如下表:样本号 12345678910 x10022445667x2655343121011 12 13 14 15 16 17 18 19 20 21-4-2-3-3-5100-1-1-3322021-1-2-1-3-5本讲稿第十六页,共七十七页本讲稿第十七页,共七十七页目标函数解:第一次分类时计算所有样本,分别划到时的E值,找出最大的。1、开始时,本讲稿第十八页,共七十七页 2、分别计算当 划入 时的E值把 划入时有本讲稿第十九页,共七十七页 然后再把 划入 时对
6、应的E值,找出一个最大的E值。把 划为 的E值最大。E(1)=56.6再继续进行第二,第三次迭代计算出 E(2),E(3),本讲稿第二十页,共七十七页 次数 E值 1 56.6 2 79.16 3 90.90 4 102.61 5 120.11 6 137.15 7 154.10 8 176.15 9 195.26 10 213.07 11 212.01本讲稿第二十一页,共七十七页 第10次迭代 划入 时,E最大。于是分成以下两类:每次分类后要重新计算 的值。可用以下递推公式:本讲稿第二十二页,共七十七页动态聚类兼顾系统聚类和分解聚类一、动态聚类的方法概要一、动态聚类的方法概要 先选定某种距离
7、作为样本间的相似性的先选定某种距离作为样本间的相似性的度量度量;确定评价聚类结果的准则函数确定评价聚类结果的准则函数;给出某种初始分类,用迭代法找出使准给出某种初始分类,用迭代法找出使准则函数取极值的最好的聚类结果。则函数取极值的最好的聚类结果。本讲稿第二十三页,共七十七页 二、代表点的选取方法:代表点就是初始分类二、代表点的选取方法:代表点就是初始分类的聚类中心数的聚类中心数k 凭经验选代表点,根据问题的性质、数据分布,从凭经验选代表点,根据问题的性质、数据分布,从直观上看来较合理的代表点直观上看来较合理的代表点k;将全部样本随机分成将全部样本随机分成k类,计算每类重心,把这些重心类,计算每
8、类重心,把这些重心作为每类的代表点作为每类的代表点;本讲稿第二十四页,共七十七页 按密度大小选代表点:按密度大小选代表点:以每个样本作为球心,以以每个样本作为球心,以d为半径做球形为半径做球形;落在球内的样本落在球内的样本数称为该点的密度,并按密度大小排序。首先选密度最大的作为数称为该点的密度,并按密度大小排序。首先选密度最大的作为第一个代表点,即第一个聚类中心。再考虑第二大密度点,若第第一个代表点,即第一个聚类中心。再考虑第二大密度点,若第二大密度点距第一代表点的距离大于二大密度点距第一代表点的距离大于d1(人为规定的正数)则把(人为规定的正数)则把第二大密度点作为第二代表点,否则不能作为代
9、表点,这样按第二大密度点作为第二代表点,否则不能作为代表点,这样按密度大小考察下去,所选代表点间的距离都大于密度大小考察下去,所选代表点间的距离都大于d1。d1太小,代太小,代表点太多,表点太多,d1太大,代表点太小,一般选太大,代表点太小,一般选d12d。对代表点内的。对代表点内的密度一般要求大于密度一般要求大于T。T0为规定的一个正数。为规定的一个正数。用前用前k个样本点作为代表点。个样本点作为代表点。本讲稿第二十五页,共七十七页三、初始分类和调整三、初始分类和调整 选一批代表点后,代表点就是聚类中心,计算其它样本到聚类中心选一批代表点后,代表点就是聚类中心,计算其它样本到聚类中心的距离,
10、把所有样本归于最近的聚类中心点,形成初始分类,再重新计算的距离,把所有样本归于最近的聚类中心点,形成初始分类,再重新计算各聚类中心,称为成批处理法。各聚类中心,称为成批处理法。选一批代表点后选一批代表点后,依次计算其它样本的归类,当计算完第一个依次计算其它样本的归类,当计算完第一个样本时,把它归于最近的一类,形成新的分类。再计算新的聚类样本时,把它归于最近的一类,形成新的分类。再计算新的聚类中心,再计算第二个样本到新的聚类中心的距离,对第二个样本中心,再计算第二个样本到新的聚类中心的距离,对第二个样本归类。即每个样本的归类都改变一次聚类中心。此法称为逐个处归类。即每个样本的归类都改变一次聚类中
11、心。此法称为逐个处理法。理法。直接用样本进行初始分类,先规定距离直接用样本进行初始分类,先规定距离d,把第一个样本作为把第一个样本作为第一类的聚类中心,考察第二个样本,若第二个样本距第一个聚类第一类的聚类中心,考察第二个样本,若第二个样本距第一个聚类中心距离小于中心距离小于d,就把第二个样本归于第一类,否则第二个样本就成,就把第二个样本归于第一类,否则第二个样本就成为第二类的聚类中心,再考虑其它样本,根据样本到聚类中心距离大为第二类的聚类中心,再考虑其它样本,根据样本到聚类中心距离大于还是小于于还是小于d,决定分裂还是合并。,决定分裂还是合并。本讲稿第二十六页,共七十七页最佳初始分类。如图所示
12、,随着初始分类k的增大,准则函数下降很快,经过拐点A后,下降速度减慢。拐点A就是最佳初始分类。本讲稿第二十七页,共七十七页1C均值聚类算法均值聚类算法聚类准则函数是误差平方和准则:聚类准则函数是误差平方和准则:四、四、c均值与均值与ISODATA聚类算法聚类算法本讲稿第二十八页,共七十七页算法特点:每次迭代中都要考查每个样本的分类是否正确,若不正确,就要调整,在全部样本调整完之后,再修改聚合中心,进入下一次迭代。如果在某一个迭代运算中,所有的样本都被正确分类,则样本不会调整,聚合中心也不会有变化,也就是收敛了。c个初始聚合中心的选择对聚类结果有较大影响。本讲稿第二十九页,共七十七页本讲稿第三十
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 模式识别 聚类续 精选 文档
限制150内