统计模式识别概述.ppt
《统计模式识别概述.ppt》由会员分享,可在线阅读,更多相关《统计模式识别概述.ppt(37页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、统计模式识别简介,金新 0937009 吴曲 0937028 张巧玲 0937036 赵显峰 0937041,关于统计学的一个笑话:,有一个从没带过小孩的统计学家,因为妻子出门勉强答应照看三个年幼好动的孩子。妻子回家时,他交出一张纸条,写的是: “擦眼泪11次;系鞋带15次;给每个孩子吹玩具气球各5次,累计15次;每个气球的平均寿命10秒钟;警告孩子不要横穿马路26次;孩子坚持要穿马路26次;我还要再过这样的星期六0次”。 统计学真的这样呆板吗?仅仅收集数据,整理分析,累加平均,统计理论要解决的是从数据中做出一些 推断、它为解决随机观测事件的决策过程 提供了理论基础。 PR中的分类问题是根据识
2、别对象特征的观测值,将其分到相应的类别中去。 而统计决策理论是模式分类的主要理论和工具之一。 下面我们介绍统计模式识别,以及几种最常用、也是最基本的统计决策方法。,统计模式识别,统计模式识别方法就是用给定的有限数量样本集,在已知研究对象统计模型或已知判别函数类条件下根据一定的准则通过学习算法把d 维特征空间划分为c个区域,每一个区域与每一类别相对应。,属于同一类别的各个模式之间的差异,部分是由环境噪声和传感器的性质所引起的,部分是模式本身所具有的随机性质。前者如纸的质量、墨水、污点对书写字符的影响;后者表现为同一个人书写同一字符时,虽形状相似,但不可能完全一样。因此当用特征向量来表示这些在形状
3、上稍有差异的字符时,同这些特征向量对应的特征空间中的点便不同一,而是分布在特征空间的某个区域中。这个区域就可以用来表示该随机向量实现的集合。,假使在特征空间中规定某种距离度量,从直观上看,两点之间的距离越小,它们所对应的模式就越相似。在理想的情况下,不同类的两个模式之间的距离要大于同一类的两个模式之间的距离,同一类的两点间连接线上各点所对应的模式应属于同一类。一个畸变不大的模式所对应的点应紧邻没有畸变时该模式所对应的点。在这些条件下,可以准确地把特征空间划分为同各个类别相对应的区域。在不满足上述条件时,可以对每个特征向量估计其属于某一类的概率,而把有最大概率值的那一类作为该点所属的类别。,模式
4、识别系统在进行工作时只要判断被识别的对象落入哪一个区域,就能确定出它所属的类别。由噪声和传感器所引起的变异性,可通过预处理而部分消除;而模式本身固有的变异性则可通过特征抽取和特征选择得到控制,尽可能地使模式在该特征空间中的分布满足上述理想条件。因此一个统计模式识别系统应包含预处理、特征抽取、分类器等部分(见图)。,统计模式识别模型,该模型主要包括两种操作模型:训练和分类 ,其中训练主要利用已有样本完成对决策边界的划分 ,并采取了一定的学习机制以保证基于样本的划分是最优的;而分类主要对输入的模式利用其特征和训练得来的决策函数而把模式划分到相应模式类中。,基本原理,统计模式识别(statistic
5、 pattern recognition)的基本原理是:有相似性的样本在模式空间中互相接近,并形成“集团”,即“物以类聚”。其分析方法是根据模式所测得的特征向量Xi=(xi1,xi2,xid)T(i=1,2,N),将一个给定的模式归入C个类1,2, c中,然后根据模式之间的距离函数来判别分类。其中,T表示转置;N为样本点数;d为样本特征数。,统计模式识别的方法有: 贝叶斯决策方法 (1)最小错误概率贝叶斯判别准则 (2)最小风险贝叶斯判别 (3)聂曼皮尔逊判别准则准则 判别函数法 (1)线性可分的几何分类法 (2)非线性可分的几何分类法,监督参数统计法 (1)KNN法(K最近邻法) (2)Fi
6、sher判别分析法 非监督参数统计法 (1)基于概率密度函数估计的直接方法 (2)与样本空间相似性度量的间接聚类方法 聚类分析法 近邻函数法 (1)基于最邻近规范的试探法 (2)最大最小距离法,主要方法,贝叶斯决策法 线性判别函数 邻近法分类(KNN) 最小距离分类 聚类分析法,贝叶斯决策方法,运用统计决策理论设计的分类系统又称为分类器。 贝叶斯决策是一种统计模式识别决策法,它有如下基本假定: 1.各类别总体的概率分布是已知的 2.被决策的分类数是一定的 3.被识别的事物或对象有多个特征观测值,当被识对象用n随机向量X表示,二我们已知分类的先验概率的条件概率密度函数,便可根据贝叶斯公式,求解后
7、验概率,并按后验概率的大小来判别分类,这就是贝叶斯决策方法。下面介绍三种判别准则: (1)最小错误概率贝叶斯判别准则 (2)最小风险贝叶斯判别 (3)聂曼皮尔逊判别准则准则,(1)最小错误概率贝叶斯判别准则,设有R类样本,分别为w1,w2,wR, 已知每类的先验概率为P(wi), 其中i=1,2, ,R。对于待识别的随机向量X,已知每类的条件概率密度为P(X|wi),则根据贝叶斯公式有后验概率: P(wi|X)=(P(X| wi)*P(wi)/(P(Xwi)*P(wi) (1) 根据计算得出得后验概率,取最大得后验概率P(wi|X)所属的wi类,判决X属于wi类。表示为: P(wi|X)P(w
8、j|X)则X属于wi 其中i,j=1,2, ,R,且存在ji,这就是贝叶斯判别准则。 若按统计理论定义“似然比”为: l(X) = P(X| wi)/ P(x| wi) 取判别阀值: ji= P(wj)/ P(wi) 则有贝叶斯判别准则的似然比表示形式: l(X) P(wj)/ P(wi) 则X属于wi 对于两类模式集(w1,w2)的分类,贝叶斯判别准则简单表示为: 若 P(w1|X)P(w2|X)则X属于w1 若 P(w2|X)P(w1|X)则X属于w2 贝叶斯判别准则实质上是最小错误概率的贝叶斯判别准则。,最小风险贝叶斯判别准则,在实际工作中,有时仅考虑错误率最小是不够的。要引入比错误率更
9、广泛的概念风险、损失。 如果在采取每一决策时,其条件风险都最小,则对所有的x作决策时,其平均(期望风险)也最小。称为最小风险的贝叶斯决策。,在决策理论中,称所采取的决定为决策或行动。每个决策或行动都会带来一定的损失。该损失用表示,它是与本该属于wi但采取的决策为j所造成的损失有关。由此定义损失函数为(j| wi)=ij(i,j=1,2, ,R)。对样本X属于wi,有贝叶斯公式已知后验概率为P(wi|X),几何分类法(判别函数法),一个模式经某种数学变换后,映射为一特征向量,并表示为特征空间的一个点。同一类的点构成点集,表示一类i。不同类的点集(i ,i=1,2, ,n)总是互相有不同程度的分离
10、。若能几何的方法,找出一种不依赖于条件概率密度的分离函数,把特征空间划分为对应于不同类别的子空间,便可实现模式分类。因此,把这种分类方法称为几何分类法,把这种分离函数成为判别函数。从而,几何分类法也通常称为判别函数法。,判别函数可以是线性的或非线性的。利用已知类别的训练集,通过统计方法,可以求的判别函数的具体形式和参数,然后用来判别未知样本属何类别。这种方法虽属统计分类方法,但无需依赖于条件分布密度的知识,因此在一些场合下,比基于贝叶斯公式的概率分类法简单。,线性判别函数,基于线性判别函数的模式分类器称为线性分类器。设计线性分类器的主要步骤是:首先已知一组有类别的样本训练集。第二,选择一个准则
11、函数,该函数既与样本集X与W有函数关系,又能反映分类器性能。第三,用最优化技术求出准则函数的极值解W,从而得到线性判别函数优化解。,监督参数统计法,KNN法( K最近邻法) Fisher判别分析法,K最近邻法,KNN法,也称K最近邻法,是模式识别的标准算法之一。 其基本原理是先将已经分好类别的训练样本点“记入”多维空间中,然后将待分类的未知样本也记入空间。考察未知样本的K个近邻,若近邻中某一类样本最多,则可以将未知样本也判为该类。在多维空间中,各点间的距离通常规定为欧几里得空间距离。KNN法的好处是它对数据结构没有特定的要求,只要用每个未知点的近邻属性类来判别就行了;KNN法也不需要训练过程。
12、KNN法的一个缺点就是它没有对训练点作信息压缩,因此每判断一个新的未知点都要将所有对已知点的距离全部算一遍,计算工作量较大。一种简化的算法称为类重心法,即将训练中每类样本点的重心求出,然后判别未知样本点与各类的重心的距离;未知样本与哪一类重心距离最近,,非监督参数统计法,基于概率密度函数估计的直接方法 于样本空间相似性度量的间接聚类方法,聚类分析法,在没有训练集的情况下,对一批没有类别的被识别样本进行自动分类,要按照样本之间的相似程度分类,即俗语讲的“物以类聚,人以群分”,这种分类方法称为聚类分析,它是一种无教师的非监督的分类方法。 若有未知类别的n个样本,要把它们分到C类中,可以有不同的聚类
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 统计 模式识别 概述
限制150内