智能决策理论与方法.ppt
《智能决策理论与方法.ppt》由会员分享,可在线阅读,更多相关《智能决策理论与方法.ppt(53页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、决策理论与方法决策理论与方法(4)智能决策理论与方法智能决策理论与方法(2)合肥工业大学管理学院合肥工业大学管理学院合肥工业大学管理学院合肥工业大学管理学院Wednesday,December 7,2022Wednesday,December 7,2022智能决策理论与方法智能决策理论与方法1 1、智能决策理论的形成背景、智能决策理论的形成背景、智能决策理论的形成背景、智能决策理论的形成背景2 2、知识发现、知识发现、知识发现、知识发现3 3、机器学习、机器学习、机器学习、机器学习4 4、不确定性理论、不确定性理论、不确定性理论、不确定性理论决策理论与方法-智能决策理论与方法机器学习机器学习v
2、v机器学习机器学习机器学习机器学习是从模拟人类的学习行为出发,研究客观是从模拟人类的学习行为出发,研究客观是从模拟人类的学习行为出发,研究客观是从模拟人类的学习行为出发,研究客观世界和获取各种知识与技能的一些基本方法(如归世界和获取各种知识与技能的一些基本方法(如归世界和获取各种知识与技能的一些基本方法(如归世界和获取各种知识与技能的一些基本方法(如归纳、泛化、特化、类比等),并借助于计算机科学纳、泛化、特化、类比等),并借助于计算机科学纳、泛化、特化、类比等),并借助于计算机科学纳、泛化、特化、类比等),并借助于计算机科学与技术原理建立各种学习模型,从根本上提高计算与技术原理建立各种学习模型
3、,从根本上提高计算与技术原理建立各种学习模型,从根本上提高计算与技术原理建立各种学习模型,从根本上提高计算机智能和学习能力。机智能和学习能力。机智能和学习能力。机智能和学习能力。研究内容研究内容研究内容研究内容是根据生理学、认知是根据生理学、认知是根据生理学、认知是根据生理学、认知科学对人类学习机理的了解,建立人类学习的计算科学对人类学习机理的了解,建立人类学习的计算科学对人类学习机理的了解,建立人类学习的计算科学对人类学习机理的了解,建立人类学习的计算模型或认知模型;发展各种学习理论和学习方法,模型或认知模型;发展各种学习理论和学习方法,模型或认知模型;发展各种学习理论和学习方法,模型或认知
4、模型;发展各种学习理论和学习方法,研究通用的学习算法并进行理论上的分析;建立面研究通用的学习算法并进行理论上的分析;建立面研究通用的学习算法并进行理论上的分析;建立面研究通用的学习算法并进行理论上的分析;建立面向任务且具有特定应用的学习系统。向任务且具有特定应用的学习系统。向任务且具有特定应用的学习系统。向任务且具有特定应用的学习系统。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化v归纳学习归纳学习是指从给定的关于某个概念的一系列已知是指从给定的关于某个概念的一系列已知的正例和反例中归纳出一个通用的概念描述。的正例和反例中归纳出一个通用的概念描述。v泛化泛化(G
5、eneralization)是用来扩展一假设的语义信是用来扩展一假设的语义信息,使其能够包含更多的正例。泛化所得到的结论息,使其能够包含更多的正例。泛化所得到的结论并不总是正确的。并不总是正确的。v常用泛化方法常用泛化方法:将常量转为变量规则将常量转为变量规则:对于概念:对于概念F(v),如果,如果v的某些取值的某些取值a,b,使使F(v)成立,则这些概念可被泛化为:对于成立,则这些概念可被泛化为:对于v的所有的所有值,值,F(v)均成立:均成立:决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化消除条件规则消除条件规则消除条件规则消除条件规则:一个合取条件可看作是
6、对满足此概念的:一个合取条件可看作是对满足此概念的:一个合取条件可看作是对满足此概念的:一个合取条件可看作是对满足此概念的可能实例集的一个约束。消除一个条件,则该概念被泛可能实例集的一个约束。消除一个条件,则该概念被泛可能实例集的一个约束。消除一个条件,则该概念被泛可能实例集的一个约束。消除一个条件,则该概念被泛化。化。化。化。添加选项添加选项添加选项添加选项:通过添加更多条件,使得有更多的实例满足:通过添加更多条件,使得有更多的实例满足:通过添加更多条件,使得有更多的实例满足:通过添加更多条件,使得有更多的实例满足概念而使该概念泛化。该规则特别有用的方式是通过扩概念而使该概念泛化。该规则特别
7、有用的方式是通过扩概念而使该概念泛化。该规则特别有用的方式是通过扩概念而使该概念泛化。该规则特别有用的方式是通过扩展某个特定概念的取值范围而增加选项。展某个特定概念的取值范围而增加选项。展某个特定概念的取值范围而增加选项。展某个特定概念的取值范围而增加选项。将合取转为析取规则将合取转为析取规则将合取转为析取规则将合取转为析取规则决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化爬升概念树规则爬升概念树规则爬升概念树规则爬升概念树规则:通过爬升概念树,低层概念被较高层:通过爬升概念树,低层概念被较高层:通过爬升概念树,低层概念被较高层:通过爬升概念树,低层概念被较高层
8、概念替代。设概念替代。设概念替代。设概念替代。设A A表示信息系统中的某个属性如表示信息系统中的某个属性如表示信息系统中的某个属性如表示信息系统中的某个属性如AnimalAnimal,a a,b b,分别为对象分别为对象分别为对象分别为对象u u,v v,在属性在属性在属性在属性A A上的取值,若上的取值,若上的取值,若上的取值,若s s是概念树是概念树是概念树是概念树上上上上a a,b b,的父结点,则基于概念树爬升的泛化规则表示为:的父结点,则基于概念树爬升的泛化规则表示为:的父结点,则基于概念树爬升的泛化规则表示为:的父结点,则基于概念树爬升的泛化规则表示为:NickNick等人给出了一
9、种面向属性的归纳算法。等人给出了一种面向属性的归纳算法。等人给出了一种面向属性的归纳算法。等人给出了一种面向属性的归纳算法。vv过度泛化问题过度泛化问题过度泛化问题过度泛化问题当某个属性被爬升至过高的概念层会导致冲突的产生,当某个属性被爬升至过高的概念层会导致冲突的产生,当某个属性被爬升至过高的概念层会导致冲突的产生,当某个属性被爬升至过高的概念层会导致冲突的产生,这种现象称为过度泛化。克服过度泛化必须有相应的终这种现象称为过度泛化。克服过度泛化必须有相应的终这种现象称为过度泛化。克服过度泛化必须有相应的终这种现象称为过度泛化。克服过度泛化必须有相应的终止泛化算法的策略。止泛化算法的策略。止泛
10、化算法的策略。止泛化算法的策略。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:泛化归纳学习:泛化动物哺乳类鸟类企鹅食肉类蹄类飞禽类走禽类虎印度豹长颈鹿斑马信天翁鹰驼鸟第1层第2层第3层第4层决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树vv决策树学习决策树学习决策树学习决策树学习是以实例为基础的归纳学习算法。是以实例为基础的归纳学习算法。是以实例为基础的归纳学习算法。是以实例为基础的归纳学习算法。所谓决策树是所谓决策树是所谓决策树是所谓决策树是一个类似流程图的树结构,其中树的内结点对应属性或属性一个类似流程图的树结构,其中树的内结点对应属性或属
11、性一个类似流程图的树结构,其中树的内结点对应属性或属性一个类似流程图的树结构,其中树的内结点对应属性或属性集,每个分枝表示检验结果集,每个分枝表示检验结果集,每个分枝表示检验结果集,每个分枝表示检验结果(属性值属性值属性值属性值),树枝上的叶结点代表,树枝上的叶结点代表,树枝上的叶结点代表,树枝上的叶结点代表所关心的因变量的取值所关心的因变量的取值所关心的因变量的取值所关心的因变量的取值(类标签类标签类标签类标签),最顶端的结点称为根结点。,最顶端的结点称为根结点。,最顶端的结点称为根结点。,最顶端的结点称为根结点。vv决策树学习采用自顶向下的递归方式,在决策树的内部结点决策树学习采用自顶向下
12、的递归方式,在决策树的内部结点决策树学习采用自顶向下的递归方式,在决策树的内部结点决策树学习采用自顶向下的递归方式,在决策树的内部结点进行属性值比较并根据不同的属性值判断从该结点向下的分进行属性值比较并根据不同的属性值判断从该结点向下的分进行属性值比较并根据不同的属性值判断从该结点向下的分进行属性值比较并根据不同的属性值判断从该结点向下的分支,在叶结点得到结论。支,在叶结点得到结论。支,在叶结点得到结论。支,在叶结点得到结论。从根结点到每个叶结点都有唯一的从根结点到每个叶结点都有唯一的从根结点到每个叶结点都有唯一的从根结点到每个叶结点都有唯一的一条路径,这条路径就是一条决策一条路径,这条路径就
13、是一条决策一条路径,这条路径就是一条决策一条路径,这条路径就是一条决策“规则规则规则规则”。vv当经过一批训练实例集的训练产生一颗决策树,那么该决策当经过一批训练实例集的训练产生一颗决策树,那么该决策当经过一批训练实例集的训练产生一颗决策树,那么该决策当经过一批训练实例集的训练产生一颗决策树,那么该决策树就可以根据属性的取值对一个未知实例集进行分类。树就可以根据属性的取值对一个未知实例集进行分类。树就可以根据属性的取值对一个未知实例集进行分类。树就可以根据属性的取值对一个未知实例集进行分类。所有所有所有所有的决策树都有一等价的的决策树都有一等价的的决策树都有一等价的的决策树都有一等价的ANNA
14、NN表示;也可用表示;也可用表示;也可用表示;也可用SVMSVM实现相同的实现相同的实现相同的实现相同的功能。功能。功能。功能。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树A0A0 A1A1 A2A2 A3A3 类类类类0 00 00 00 0-1-10 00 00 01 1-1-10 00 01 10 0-1-10 00 01 11 1-1-10 01 10 00 01 10 01 10 01 11 10 01 11 10 01 10 01 11 11 11 1A0A0A1A1 A2A2 A3A3 类类类类1 10 00 00 0-1-11 10 00
15、01 1-1-11 10 01 10 0-1-11 10 01 11 1-1-11 11 10 00 01 11 11 10 01 11 11 11 11 10 0-1-11 11 11 11 1-1-1A0A1A1A2-11-11-110010110决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树vv概念学习系统概念学习系统概念学习系统概念学习系统CLS(HuntCLS(Hunt):从一颗空的决策树出发,添加新:从一颗空的决策树出发,添加新:从一颗空的决策树出发,添加新:从一颗空的决策树出发,添加新的判定结点来改善原来的决策树,直到该决策树能够正确地的判定结
16、点来改善原来的决策树,直到该决策树能够正确地的判定结点来改善原来的决策树,直到该决策树能够正确地的判定结点来改善原来的决策树,直到该决策树能够正确地将训练实例分类为止。将训练实例分类为止。将训练实例分类为止。将训练实例分类为止。产生根节点产生根节点产生根节点产生根节点T T,T T包含所有的训练样本;包含所有的训练样本;包含所有的训练样本;包含所有的训练样本;如果如果如果如果T T中的所有样本都是正例,则产生一个标有中的所有样本都是正例,则产生一个标有中的所有样本都是正例,则产生一个标有中的所有样本都是正例,则产生一个标有“1”1”的节点作的节点作的节点作的节点作为为为为T T的子节点,并结束
17、;的子节点,并结束;的子节点,并结束;的子节点,并结束;如果如果如果如果T T中的所有样本都是反例,则产生一个标有中的所有样本都是反例,则产生一个标有中的所有样本都是反例,则产生一个标有中的所有样本都是反例,则产生一个标有“-1”-1”的节点作的节点作的节点作的节点作为为为为T T的子节点,并结束;的子节点,并结束;的子节点,并结束;的子节点,并结束;选择一个属性选择一个属性选择一个属性选择一个属性A A(如何选如何选如何选如何选?)?),根据该属性的不同取值,根据该属性的不同取值,根据该属性的不同取值,根据该属性的不同取值v v1 1,v v2 2,v vn n将将将将T T中的训练集划分为
18、中的训练集划分为中的训练集划分为中的训练集划分为n n个子集,并根据这个子集,并根据这个子集,并根据这个子集,并根据这n n个子集建立个子集建立个子集建立个子集建立T T的的的的n n个个个个子节点子节点子节点子节点T T1 1,T,T2 2,T Tn n,并分别以,并分别以,并分别以,并分别以A=A=v vi i作为从作为从作为从作为从T T到到到到T Ti i的分支符号;的分支符号;的分支符号;的分支符号;以每个子节点以每个子节点以每个子节点以每个子节点T Ti i为根建立新的子树。为根建立新的子树。为根建立新的子树。为根建立新的子树。决策理论与方法-智能决策理论与方法机器学习机器学习归纳
19、学习:决策树归纳学习:决策树A0A1A1A2-11-11-110010110T2T2T1T1T11T11T12T12T111T111T112T112T21T21T22T22T决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树vvID3ID3算法算法算法算法(Quinlan)(Quinlan):ID3ID3算法对算法对算法对算法对CLSCLS做了两方面的改进:做了两方面的改进:做了两方面的改进:做了两方面的改进:(1)(1)增加窗口技术;增加窗口技术;增加窗口技术;增加窗口技术;(2)(2)以信息熵的下降速度以信息熵的下降速度以信息熵的下降速度以信息熵的下降速度(
20、信息增益信息增益信息增益信息增益)作为测作为测作为测作为测试属性选择标准。试属性选择标准。试属性选择标准。试属性选择标准。窗口技术窗口技术窗口技术窗口技术:对于训练集很大的情形可选择其某个子集:对于训练集很大的情形可选择其某个子集:对于训练集很大的情形可选择其某个子集:对于训练集很大的情形可选择其某个子集(称称称称为窗口为窗口为窗口为窗口)构造一棵决策树,如果该决策树对训练集中的其构造一棵决策树,如果该决策树对训练集中的其构造一棵决策树,如果该决策树对训练集中的其构造一棵决策树,如果该决策树对训练集中的其它样本的判决效果很差,则扩大窗口,选择不能被正确它样本的判决效果很差,则扩大窗口,选择不能
21、被正确它样本的判决效果很差,则扩大窗口,选择不能被正确它样本的判决效果很差,则扩大窗口,选择不能被正确判别的样本加入到窗口中,再建立一个新的决策树,重判别的样本加入到窗口中,再建立一个新的决策树,重判别的样本加入到窗口中,再建立一个新的决策树,重判别的样本加入到窗口中,再建立一个新的决策树,重复这个过程得到最终的决策树,复这个过程得到最终的决策树,复这个过程得到最终的决策树,复这个过程得到最终的决策树,显然不同的初始窗口会显然不同的初始窗口会显然不同的初始窗口会显然不同的初始窗口会产生不同的决策树产生不同的决策树产生不同的决策树产生不同的决策树。决策理论与方法-智能决策理论与方法机器学习机器学
22、习归纳学习:决策树归纳学习:决策树信息增益信息增益信息增益信息增益 :设决策树根结点的样本数据为:设决策树根结点的样本数据为:设决策树根结点的样本数据为:设决策树根结点的样本数据为X X=x x1 1,x,x2 2,x xn n,称,称,称,称X X的两个训练子集的两个训练子集的两个训练子集的两个训练子集PXPX(对应类标签为对应类标签为对应类标签为对应类标签为1)1)和和和和NX NX(对应类标签为对应类标签为对应类标签为对应类标签为-1)-1)为为为为正例集正例集正例集正例集和和和和反例集反例集反例集反例集,并记正例,并记正例,并记正例,并记正例集和反例集的样本数分别为集和反例集的样本数分
23、别为集和反例集的样本数分别为集和反例集的样本数分别为P P和和和和N N,则样本空间的,则样本空间的,则样本空间的,则样本空间的信息熵信息熵信息熵信息熵为为为为 假设以随机变量假设以随机变量假设以随机变量假设以随机变量A A作为决策树根的测试属性,作为决策树根的测试属性,作为决策树根的测试属性,作为决策树根的测试属性,A A具有具有具有具有k k个个个个不同的离散值不同的离散值不同的离散值不同的离散值v v1 1,v v2 2,v vk k,它将,它将,它将,它将X X划分为划分为划分为划分为k k个子集,且假个子集,且假个子集,且假个子集,且假设第设第设第设第j j个子集中包含个子集中包含个
24、子集中包含个子集中包含P Pj j个正例,个正例,个正例,个正例,N Nj j个反例,则第个反例,则第个反例,则第个反例,则第j j个子集的个子集的个子集的个子集的信息熵为信息熵为信息熵为信息熵为I I(P(Pj j,N,Nj j)。决策理论与方法-智能决策理论与方法机器学习机器学习归纳学习:决策树归纳学习:决策树以以以以A A为测试属性的为测试属性的为测试属性的为测试属性的期望信息熵期望信息熵期望信息熵期望信息熵为为为为以以以以A A为根节点的为根节点的为根节点的为根节点的信息增益信息增益信息增益信息增益是:是:是:是:Gain(AGain(A)=)=I I(P P,N N)-)-E E(A
25、 A)vvID3ID3的策略就是的策略就是的策略就是的策略就是选择信息增益最大的属性作为测试属性选择信息增益最大的属性作为测试属性选择信息增益最大的属性作为测试属性选择信息增益最大的属性作为测试属性。vvID3ID3的问题:测试属性的分支越多,信息增益值越大,但输的问题:测试属性的分支越多,信息增益值越大,但输的问题:测试属性的分支越多,信息增益值越大,但输的问题:测试属性的分支越多,信息增益值越大,但输出分支多并不表示该测试属性有更好的预测效果。出分支多并不表示该测试属性有更好的预测效果。出分支多并不表示该测试属性有更好的预测效果。出分支多并不表示该测试属性有更好的预测效果。决策理论与方法-
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 智能 决策 理论 方法
限制150内