周志华-机器学习-西瓜书-全书16章-ppt-Chap07贝叶斯分类器课件.pptx





《周志华-机器学习-西瓜书-全书16章-ppt-Chap07贝叶斯分类器课件.pptx》由会员分享,可在线阅读,更多相关《周志华-机器学习-西瓜书-全书16章-ppt-Chap07贝叶斯分类器课件.pptx(72页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确霍轩在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确第七章:贝叶斯分类器第七章:贝叶斯分类器在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确章节目录章节目录p贝叶斯决策论贝叶斯决策论p极大似然估计极大似然估计p朴素贝叶斯分类器朴素贝叶斯分类器p半朴素贝叶斯分类器半朴素贝叶斯分类器p贝叶斯网贝叶斯网pEM算法算法在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设
2、置具有一定的梯度,由浅入深,所提出的问题也很明确章节目录章节目录p贝叶斯决策论贝叶斯决策论p极大似然估计极大似然估计p朴素贝叶斯分类器朴素贝叶斯分类器p半朴素贝叶斯分类器半朴素贝叶斯分类器p贝叶斯网贝叶斯网pEM算法算法在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决策论贝叶斯决策论p贝叶斯决策论(Bayesian decision theory)是在概率框架下实施决策的基本方法。l在分类问题情况下,在所有相关概率都已知的理想情形下,贝叶斯决策考虑如何基于这些概率和误判损失来选择最优的类别标记。在整堂课的教学中,刘教师总是让学
3、生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决策论贝叶斯决策论p贝叶斯决策论(Bayesian decision theory)是在概率框架下实施决策的基本方法。l在分类问题情况下,在所有相关概率都已知的理想情形下,贝叶斯决策考虑如何基于这些概率和误判损失来选择最优的类别标记。p假设有 种可能的类别标记,即 ,是将一个真实标记为 的样本误分类为 所产生的损失。基于后验概率 可获得将样本 分类为 所产生的期望损失(expected loss)或者称条件风险(conditional risk)p我们的任务是寻找一个判定准则 以最小化总体风险在整堂课的教学中,刘
4、教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决贝叶斯决策论策论p显然,对每个样本 ,若 能最小化条件风险 ,则总体风险 也将被最小化。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决贝叶斯决策论策论p显然,对每个样本 ,若 能最小化条件风险 ,则总体风险 也将被最小化。p这就产生了贝叶斯判定准则(Bayes decision rule):为最小化总体风险,只需在每个样本上选择那个能使条件风险 最小的类别标记,即l此时,被称为贝叶斯最优分类器(Bayes optimal clas
5、sifier),与之对应的总体风险 称为贝叶斯风险(Bayes risk)l 反映了分类起所能达到的最好性能,即通过机器学习所能产生的模型精度的理论上限。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决策论贝叶斯决策论p具体来说,若目标是最小化分类错误率,则误判损失 可写为在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决策论贝叶斯决策论p具体来说,若目标是最小化分类错误率,则误判损失 可写为p此时条件风险在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题
6、的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决策论贝叶斯决策论p具体来说,若目标是最小化分类错误率,则误判损失 可写为p此时条件风险p于是,最小化分类错误率的贝叶斯最优分类器为l即对每个样本 ,选择能使后验概率 最大的类别标记。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决策论贝叶斯决策论p不难看出,使用贝叶斯判定准则来最小化决策风险,首先要获得后验概率 。p然而,在现实中通常难以直接获得。机器学习所要实现的是基于有限的训练样本尽可能准确地估计出后验概率 。p主要有两种策略:l判别式模型(discriminat
7、ive models)l给定 ,通过直接建模 ,来预测l决策树,BP神经网络,支持向量机l生成式模型(generative models)l先对联合概率分布 建模,再由此获得l生成式模型考虑在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决策论贝叶斯决策论p生成式模型在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决策论贝叶斯决策论p生成式模型p基于贝叶斯定理,可写成在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问
8、题也很明确贝叶斯决策论贝叶斯决策论p生成式模型p基于贝叶斯定理,可写成先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理)在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决策论贝叶斯决策论p生成式模型p基于贝叶斯定理,可写成先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理)“证据”(evidence)因子,与类标记无关在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确贝叶斯决策论贝叶斯决策论p生成式模型p基于贝叶斯定理
9、,可写成先验概率样本空间中各类样本所占的比例,可通过各类样本出现的频率估计(大数定理)“证据”(evidence)因子,与类标记无关类标记 相对于样本 的“类条件概率”(class-conditional probability),或称“似然”。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确章节目录章节目录p贝叶斯决策论贝叶斯决策论p极大似然估计极大似然估计p朴素贝叶斯分类器朴素贝叶斯分类器p半朴素贝叶斯分类器半朴素贝叶斯分类器p贝叶斯网贝叶斯网pEM算法算法在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯
10、度,由浅入深,所提出的问题也很明确章节目录章节目录p贝叶斯决策论贝叶斯决策论p极大似然估计极大似然估计p朴素贝叶斯分类器朴素贝叶斯分类器p半朴素贝叶斯分类器半朴素贝叶斯分类器p贝叶斯网贝叶斯网pEM算法算法在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确朴素贝叶斯分类器朴素贝叶斯分类器p估计后验概率 主要困难:类条件概率 是所有属性上的联合概率难以从有限的训练样本估计获得。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确朴素贝叶斯分类器朴素贝叶斯分类器p估计后验概率 主要困难
11、:类条件概率 是所有属性上的联合概率难以从有限的训练样本估计获得。p朴素贝叶斯分类器(Nave Bayes Classifier)采用了“属性条件独立性假设”(attribute conditional independence assumption):每个属性独立地对分类结果发生影响。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确朴素贝叶斯分类器朴素贝叶斯分类器p估计后验概率 主要困难:类条件概率 是所有属性上的联合概率难以从有限的训练样本估计获得。p朴素贝叶斯分类器(Nave Bayes Classifier)采用了“属性条件独
12、立性假设”(attribute conditional independence assumption):每个属性独立地对分类结果发生影响。p基于属性条件独立性假设,(7.8)可重写为l其中 为属性数目,为 在第 个属性上的取值。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确朴素贝叶斯分类器朴素贝叶斯分类器 在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确朴素贝叶斯分类器朴素贝叶斯分类器 由于对所有类别来说 相同,因此基于式(7.6)的贝叶斯判定准则有l这就是朴素贝叶斯分类
13、器的表达式在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确朴素朴素贝叶斯分类器贝叶斯分类器p朴素贝叶斯分类器的训练器的训练过程就是基于训练集 估计类先验概率 并为每个属性估计条件概率 。l令 表示训练集 中第 类样本组合的集合,若有充足的独立同分布样本,则可容易地估计出类先验概率l对离散属性而言,令 表示 中在第 个属性上取值为 的样本组成的集合,则条件概率 可估计为l对连续属性而言可考虑概率密度函数,假定 ,其中 和 分别是第 类样本在第 个属性上取值的均值和方差,则有在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具
14、有一定的梯度,由浅入深,所提出的问题也很明确朴素贝叶斯分类器朴素贝叶斯分类器p例子:用西瓜数据集3.0训练一个朴素贝叶斯分类器,对测试例“测1”进行分类(p151,西瓜数据集 p84 表4.3)在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确拉普拉斯拉普拉斯修正修正p若某个属性值在训练集中没有与某个类同时出现过,则直接计算会出现问题,.比如“敲声=清脆”测试例,训练集中没有该样例,因此连乘式计算的概率值为0,无论其他属性上明显像好瓜,分类结果都是“好瓜=否”,这显然不合理。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置
15、具有一定的梯度,由浅入深,所提出的问题也很明确拉普拉斯修正拉普拉斯修正p若某个属性值在训练集中没有与某个类同时出现过,则直接计算会出现问题,.比如“敲声=清脆”测试例,训练集中没有该样例,因此连乘式计算的概率值为0,无论其他属性上明显像好瓜,分类结果都是“好瓜=否”,这显然不合理。p为了避免其他属性携带的信息被训练集中未出现的属性值“抹去”,在估计概率值时通常要进行“拉普拉斯修正”(Laplacian correction)l令 表示训练集 中可能的类别数,表示第 个属性可能的取值数,则式(7.16)和(7.17)分别修正为p现实任务中,朴素贝叶斯分类器的使用情形:速度要求高,“查表”;任务数
16、据更替频繁,“懒惰学习”(lazy learning);数据不断增加,增量学习等等。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确章节目录章节目录p贝叶斯决策论贝叶斯决策论p极大似然估计极大似然估计p朴素贝叶斯分类器朴素贝叶斯分类器p半朴素贝叶斯分类器半朴素贝叶斯分类器p贝叶斯网贝叶斯网pEM算法算法在整堂课的教学中,刘
17、教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确半朴素贝叶斯分类器半朴素贝叶斯分类器p为了降低贝叶斯公式中估计后验概率的困难,朴素贝叶斯分类器采用的属性条件独立性假设;对属性条件独立假设进行一定程度的放松,由此产生了一类称为“半朴素贝叶斯分类器”(semi-nave Bayes classifiers)在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确半朴素贝叶斯分类器半朴素贝叶斯分类器p为了降低贝叶斯公式中估计后验概率的困难,朴素贝叶斯分类器采用的属性条件独立性假设;对属性条件独立假设记性一定程
18、度的放松,由此产生了一类称为“半朴素贝叶斯分类器”(semi-nave Bayes classifiers)p半朴素贝叶斯分类器最常用的一种策略:“独依赖估计”(One-Dependent Estimator,简称ODE),假设每个属性在类别之外最多仅依赖一个其他属性,即l其中 为属性 所依赖的属性,称为 的父属性p对每个属性 ,若其父属性 已知,则可估计概值 ,于是问题的关键转化为如何确定每个属性的父属性在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确SPODEp最直接的做法是假设所有属性都依赖于同一属性,称为“超父”(super-
19、parenet),然后通过交叉验证等模型选择方法来确定超父属性,由此形成了SPODE(Super-Parent ODE)方法。图7.1 朴素贝叶斯分类器与两种半朴素分类器所考虑的属性依赖关系p在图7.1(b)中,是超父属性。在整堂课的教学中,刘教师总是让学生带着问题来学习,而问题的设置具有一定的梯度,由浅入深,所提出的问题也很明确TANpTAN(Tree augmented Nave Bayes)Friedman et al.,1997 则在最大带权生成树(Maximum weighted spanning tree)算法 Chow and Liu,1968 的基础上,通过以下步骤将属性间依赖
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 周志华 机器 学习 西瓜 全书 16 ppt Chap07 贝叶斯 分类 课件

限制150内