人工智能机器学习专业课件.优秀PPT.ppt
《人工智能机器学习专业课件.优秀PPT.ppt》由会员分享,可在线阅读,更多相关《人工智能机器学习专业课件.优秀PPT.ppt(38页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、机器学习第3章 决策树学习2003.11.181机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏概论决策树学习是应用最广的归纳推理算法之一是一种靠近离散值函数的方法很好的健壮性能够学习析取表达式ID3,Assistant,C4.5搜寻一个完整表示的假设空间归纳偏置是优先选择较小的树决策树表示了多个if-then规则2003.11.182机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏提纲决策树定义适用问题特征基本ID3算法决策树学习的归纳偏置训练数据的过度拟合更深化的话题2003.11.183机器学习-决策树学习 译者:曾华军等 作者:Mit
2、chell 讲者:陶晓鹏决策树表示法决策树通过把实例从根节点排列到某个叶子节点来分类实例。叶子节点即为实例所属的分类树上每个节点说明白对实例的某个属性的测试节点的每个后继分支对应于该属性的一个可能值图3-1决策树代表实例属性值约束的合取的析取式。从树根到树叶的每一条路径对应一组属性测试的合取,树本身对应这些合取的析取。2003.11.184机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏决策树学习的适用问题适用问题的特征实例由“属性-值”对表示目标函数具有离散的输出值可能须要析取的描述训练数据可以包含错误训练数据可以包含缺少属性值的实例问题举例依据疾病分类患者依据起因
3、分类设备故障依据拖欠支付的可能性分类贷款申请分类问题核心任务是把样例分类到各可能的离散值对应的类别2003.11.185机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏基本的决策树学习算法大多数决策树学习算法是一种核心算法的变体接受自顶向下的贪欲搜寻遍历可能的决策树空间ID3是这种算法的代表2003.11.186机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏基本的决策树学习算法(2)ID3的思想自顶向下构造决策树从“哪一个属性将在树的根节点被测试”起先运用统计测试来确定每一个实例属性单独分类训练样例的实力ID3的过程分类实力最好的属性被选作
4、树的根节点根节点的每个可能值产生一个分支训练样例排列到适当的分支重复上面的过程2003.11.187机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏表3-1 用于学习布尔函数的ID3算法概要ID3(Examples,Target_attribute,Attributes)创建树的root节点假如Examples都为正,返回label=+的单节点树root假如Examples都为反,返回label=-的单节点树root假如Attributes为空,那么返回单节点root,label=Examples中最普遍的Target_attribute值否则起先AAttribute
5、s中分类examples实力最好的属性root的决策属性A对于A的每个可能值vi在root下加一个新的分支对应测试A=vi令Examplesvi为Examples中满足A属性值为vi的子集假如Examplesvi为空在这个新分支下加一个叶子节点,节点的label=Examples中最普遍的Target_attribute值否则在新分支下加一个子树ID3(Examplesvi,Target_attribute,Attributes-A)结束返回root2003.11.188机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏最佳分类属性信息增益用来衡量给定的属性区分训练样例
6、的实力ID3算法在增长树的每一步运用信息增益从候选属性中选择属性用熵度量样例的均一性熵刻画了随意样例集的纯度给定包含关于某个目标概念的正反样例的样例集S,那么S相对这个布尔型分类的熵为Entropy(S)=-p+log2p+-p-log2p-信息论中对熵的一种说明,熵确定了要编码集合S中随意成员的分类所须要的最少二进制位数更一般地,假如目标属性具有c个不同的值,那么S相对于c个状态的分类的熵定义为 Entropy(S)=2003.11.189机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏最佳分类属性(2)用信息增益度量期望的熵降低属性的信息增益,由于运用这个属性分割
7、样例而导致的期望熵降低 Gain(S,A)是在知道属性A的值后可以节约的二进制位数例子2003.11.1810机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏ID3算法举例表3-2接着这个过程,直到满足以下两个条件中的一个全部的属性已经被这条路经包括与这个节点关联的全部训练样例都具有相同的目标属性值2003.11.1811机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏决策树学习中的假设空间搜寻视察ID3的搜寻空间和搜寻策略,相识到这个算法的优势和不足假设空间包含全部的决策树,它是关于现有属性的有限离散值函数的一个完整空间维护单一的当前假设(
8、不同于其次章的变型空间候选消退算法)不进行回溯,可能收敛到局部最优每一步运用全部的训练样例,不同于基于单独的训练样例递增作出确定,容错性增加2003.11.1812机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏决策树学习的归纳偏置ID3的搜寻策略优先选择较短的树选择那些信息增益高的属性离根节点较近的树很难精确刻画ID3的归纳偏置近似的ID3的归纳偏置较短的树比较长的树优先近似在于ID3得到局部最优,而不确定是全局最优一个精确具有这个归纳偏置的算法,BFS-ID3更贴切近似的归纳偏置较短的树比较长的树优先,信息增益高的属性更靠近根节点的树优先2003.11.1813机
9、器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏限定偏置和优选偏置ID3和候选消退算法的比较ID3的搜寻范围是一个完整的假设空间,但不彻底地搜寻这个空间候选消退算法的搜寻范围是不完整的假设空间,但彻底地搜寻这个空间ID3的归纳偏置完全是搜寻策略排序假设的结果,来自搜寻策略候选消退算法完全是假设表示的表达实力的结果,来自对搜寻空间的定义2003.11.1814机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏限定偏置和优选偏置优选偏置ID3的归纳偏置是对某种假设赛过其他假设的一种优选,对最终可列举的假设没有硬性限制限定偏置候选消退算法的偏置是对待考
10、虑假设的一种限定通常优选偏置比限定偏置更符合归纳学习的须要优选偏置和限定偏置的结合考虑第1章的例子2003.11.1815机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏为什么短的假设优先ID3的归纳偏置的哲学基础奥坎姆剃刀优先选择拟合数据的最简洁的假设科学上的例子物理学家优先选择行星运动的简洁假设简洁假设的数量远比困难假设的数量少简洁假设对训练样例的针对性更小,更像是泛化的规律,而不是训练样例的另一种描述2003.11.1816机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏为什么短的假设优先奥坎姆剃刀的困难我们反问,运用上页的推理,应当优
11、先选择包含恰好17个叶子节点和11个非叶子节点的决策树?假设的规模由学习器内部运用的特定表示确定从生物进化的观点看内部表示和奥坎姆剃刀原则2003.11.1817机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏决策树学习的常见问题决策树学习的实际问题确定决策树增长的深度处理连续值的属性选择一个适当的属性筛选度量标准处理属性值不完整的训练数据处理不同代价的属性提高计算效率针对这些问题,ID3被扩展成C4.52003.11.1818机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏避开过度拟合数据过度拟合对于一个假设,当存在其他的假设对训练样例的拟
12、合比它差,但事实上在实例的整个分布上表现得却更好时,我们说这个假设过度拟合训练样例定义:给定一个假设空间H,一个假设hH,假如存在其他的假设hH,使得在训练样例上h的错误率比h小,但在整个实例分布上h的错误率比h小,那么就说假设h过度拟合训练数据。图3-6的例子 2003.11.1819机器学习-决策树学习 译者:曾华军等 作者:Mitchell 讲者:陶晓鹏避开过度拟合数据(2)导致过度拟合的缘由一种可能缘由是训练样例含有随机错误或噪声当训练数据没有噪声时,过度拟合也有可能发生,特殊是当少量的样例被关联到叶子节点时,很可能出现巧合的规律性,使得一些属性恰巧可以很好地分割样例,但却与实际的目标
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 机器 学习 专业 课件 优秀 PPT
限制150内