人工智能导论-第四章02-59(共61张PPT).pptx
第四章第四章 非经典推理非经典推理4.1 概述概述4.2 不确定性不确定性推理推理4.3 非单调推理非单调推理4.4 概率方法概率方法4.5 主观主观贝叶斯贝叶斯方法方法4.6 贝叶斯网络贝叶斯网络4.7 可信度可信度方法方法4.8 证据理论证据理论2023/4/18人工智能导论-刘珊1培训专用基本框架基本框架2023/4/18人工智能导论-刘珊2培训专用贝叶斯贝叶斯网络网络全联合概率分布全联合概率分布贝叶斯网络的定义贝叶斯网络的定义独立和条件独立独立和条件独立贝叶斯网络的构造贝叶斯网络的构造贝叶斯贝叶斯网络网络的应用的应用精确推理精确推理近似推理近似推理2023/4/18人工智能导论-刘珊34.6 贝叶斯网络培训专用全联合概率分布全联合概率分布定义定义设设X=X1,X2,Xn 为任何随机变量集,其全联合概率分布为任何随机变量集,其全联合概率分布是指当对每个变量取特定值时是指当对每个变量取特定值时xi(i=1,2,n)时的合取概率,)时的合取概率,即即 P(X1=x1X2=x2Xn=xn),其,其简化表示形式为简化表示形式为P(x1,x2,xn)。重复使用乘法重复使用乘法法则法则2023/4/18人工智能导论-刘珊4得到如下全联合概率分布表示得到如下全联合概率分布表示4.6 贝叶斯网络培训专用贝叶斯网络贝叶斯网络基本概念基本概念一系列变量的联合概率分布的图形一系列变量的联合概率分布的图形表示表示一个表示变量之间的相互依赖关系的一个表示变量之间的相互依赖关系的数据结构数据结构定义定义是一个有向无环是一个有向无环图图随机变量随机变量集集X=X1,X2,Xn 组成组成网络节点,变量网络节点,变量可离散或连续可离散或连续连接节点对的有向边组成边集合连接节点对的有向边组成边集合每节点每节点Xi都有一个条件概率分布表:都有一个条件概率分布表:P(Xi|par(Xi),量化其父节点对该节点的,量化其父节点对该节点的影响影响2023/4/18人工智能导论-刘珊54.6 贝叶斯网络培训专用示例示例例例1、假设、假设学生在碰见难题和遇到干扰时会产生焦学生在碰见难题和遇到干扰时会产生焦虑,而焦虑又可导致思维迟缓和情绪波动。请用虑,而焦虑又可导致思维迟缓和情绪波动。请用贝叶斯网络描述这一问题贝叶斯网络描述这一问题。解:在该贝叶斯网络中,大写英文字母解:在该贝叶斯网络中,大写英文字母A、D、I、C和和E分别表示分别表示节点节点“产生焦虑产生焦虑”、“碰见难题碰见难题”、“遇到干扰遇到干扰”、“认知迟缓认知迟缓”和和“情绪波动情绪波动”,并将各节点的条件概率表置于相应节点的右侧并将各节点的条件概率表置于相应节点的右侧。所有随机变量取布尔变量,因此可以分别用小写所有随机变量取布尔变量,因此可以分别用小写英文字母英文字母a、d、i、c和和e来表示布尔变量来表示布尔变量A、D、I、C和和E取逻辑值为取逻辑值为“True”,用,用a、d、i、c和和e来表示布尔变量来表示布尔变量A、D、I、C和和E取逻辑取逻辑值为值为“False”。2023/4/18人工智能导论-刘珊64.6 贝叶斯网络培训专用示例示例右图贝叶斯右图贝叶斯网络中网络中每个节点的概率表每个节点的概率表就是该节点与其父就是该节点与其父节点之间的一个局节点之间的一个局部条件概率部条件概率分布。分布。由于节点由于节点D和和I无父无父节点,故它们的条节点,故它们的条件概率表由其先验件概率表由其先验概率来填充概率来填充2023/4/18人工智能导论-刘珊7碰见碰见难题难题产生焦虑产生焦虑遇到遇到干扰干扰思维思维迟缓迟缓情绪情绪波动波动ADIECA P(C)T 0.8A P(E)T 0.9 P(D)0.15P(I)0.05D I P(A)T T 0.8T F 0.4F T 0.5F F 0.14.6 贝叶斯网络培训专用联合概率分布联合概率分布表示表示贝叶斯网络的联合概率分布贝叶斯网络的联合概率分布表示表示用用par(Xi)表示表示Xi的所有父节点的相应的所有父节点的相应取值,取值,P(Xi|par(Xi)是节点是节点Xi的一个条件概率分布函数,的一个条件概率分布函数,则对则对X的所有节点的所有节点,有如,有如下联合概率分布:下联合概率分布:2023/4/18人工智能导论-刘珊8局部化特征局部化特征每个节点只受到整个节点集中少数别的节点的直接影响,而每个节点只受到整个节点集中少数别的节点的直接影响,而不受这些节点外的其它节点的直接不受这些节点外的其它节点的直接影响。影响。贝叶斯网叶斯网络的的语义4.6 贝叶斯网络培训专用独立和条件独立独立和条件独立nWeather和其它和其它3个变量相个变量相互互独立。独立。n给定给定Cavity后,后,Toothache和和Catch条件独立条件独立2023/4/18人工智能导论-刘珊9WeatherCavityCatchToothachen贝叶斯网络能实现简化计算的最根本基础贝叶斯网络能实现简化计算的最根本基础-条件独立性。条件独立性。n两两个判别准则个判别准则n1)给定)给定父节点,一个节点与非其后代的节点之间是条件独立的父节点,一个节点与非其后代的节点之间是条件独立的。n2)给定)给定一个节点,该节点与其父节点、子节点和子节点的父节一个节点,该节点与其父节点、子节点和子节点的父节点一起构成了一个点一起构成了一个马尔科夫覆盖马尔科夫覆盖,则该节点与马尔科夫覆盖以外的所,则该节点与马尔科夫覆盖以外的所有节点之间都是条件独立的。有节点之间都是条件独立的。4.6 贝叶斯网络培训专用条件独立条件独立2023/4/18人工智能导论-刘珊10U1Um XZ1jZnjY1Yn【说明说明】:给定节点给定节点X的的父节点父节点U1.Um,节点,节点X与它的与它的非后代节点非后代节点(即(即Zij)是条)是条件独立的。件独立的。4.6 贝叶斯网络培训专用条件独立条件独立2023/4/18人工智能导论-刘珊11【说明说明】:给定给定马尔可夫马尔可夫覆盖覆盖(两圆圈之(两圆圈之间的区域),节间的区域),节点点X和和马尔可夫马尔可夫覆盖覆盖中中所有其它所有其它节点都是条件节点都是条件独立的。独立的。U1Um XZ1jZnjY1Yn4.6 贝叶斯网络培训专用贝叶斯网络的构造贝叶斯网络的构造构造构造过程过程(1)首先首先建立不依赖于其它节点的根节点,并且根建立不依赖于其它节点的根节点,并且根节点可以不止一个。节点可以不止一个。(2)加入加入受根节点影响的节点,并将这些节点作为受根节点影响的节点,并将这些节点作为根节点的子节点。此时,根节点已成为父节点。根节点的子节点。此时,根节点已成为父节点。(3)进一步进一步建立依赖于已建节点的子节点。重复这建立依赖于已建节点的子节点。重复这一过程直到叶节点为止。一过程直到叶节点为止。(4)对每个根节点,给出其先验概率;对每个中间对每个根节点,给出其先验概率;对每个中间节点和叶节点,给出其条件概率表节点和叶节点,给出其条件概率表。主要原则主要原则忽略过于微弱的依赖关系忽略过于微弱的依赖关系利用变量间的因果关系利用变量间的因果关系2023/4/18人工智能导论-刘珊124.6 贝叶斯网络培训专用贝叶斯网络的简单应用贝叶斯网络的简单应用例例2、对、对例例1所所示的贝叶斯网络,若示的贝叶斯网络,若假设某学生已经假设某学生已经产产生了焦虑情绪,但实际上并未碰见难题,也未遇到生了焦虑情绪,但实际上并未碰见难题,也未遇到干扰,请计算思维迟缓和情绪波动的概率。干扰,请计算思维迟缓和情绪波动的概率。解:令相应变量的取值分别为:解:令相应变量的取值分别为:a,d,i,c,e,P(c e a d i)=P(c|a)P(e|a)P(a|d i)P(d)P(i)=0.80.90.10.850.95 =0.05814即所求的概率为即所求的概率为0.058142023/4/18人工智能导论-刘珊134.6 贝叶斯网络培训专用贝叶斯网络推理贝叶斯网络推理概念概念在在给定一组证据变量观察值的情况下,利用贝叶斯给定一组证据变量观察值的情况下,利用贝叶斯网络计算一组查询变量的后验概率网络计算一组查询变量的后验概率分布。分布。变量分类变量分类查询查询变量变量X证据变量集证据变量集E=E1,E2,En观察观察到的特定到的特定事件事件s非非证据证据变量集变量集Y=y1,y2,ym全部全部变量的集合变量的集合V=x E Y其其推理就是要查询后验概率推理就是要查询后验概率P(X|s)。2023/4/18人工智能导论-刘珊144.6 贝叶斯网络培训专用贝叶斯网络推理贝叶斯网络推理步骤步骤首先确定各相邻节点之间的初始条件概率分布首先确定各相邻节点之间的初始条件概率分布;然后然后对各证据节点取值对各证据节点取值;接着接着选择适当推理算法对各节点的条件概率分布进选择适当推理算法对各节点的条件概率分布进行更新行更新;最终最终得到推理结果得到推理结果。分类分类精确精确推理:一推理:一种可以精确地计算查询变量的后验概种可以精确地计算查询变量的后验概率率的推理方法,适用于单连通贝叶斯网络。的推理方法,适用于单连通贝叶斯网络。近似推理:在近似推理:在不影响推理正确性的前提下,通过适不影响推理正确性的前提下,通过适当降低推理精确度来提高推理效率的一类当降低推理精确度来提高推理效率的一类方法。方法。2023/4/18人工智能导论-刘珊154.6 贝叶斯网络培训专用贝叶斯网络精确推理贝叶斯网络精确推理主要方法主要方法基于枚举的基于枚举的算法算法基于基于变量消元的变量消元的算法算法基于基于团树传播的团树传播的算法等算法等基于枚举的基于枚举的算法算法利用利用全联合概率分布去推断查询变量的后验概全联合概率分布去推断查询变量的后验概率率2023/4/18人工智能导论-刘珊164.6 贝叶斯网络培训专用示例示例例例3、以、以例例1所所示的贝叶斯网络为例,假设目前观察到示的贝叶斯网络为例,假设目前观察到的一个事件的一个事件s=c,e,求在该事件的前提下碰见难题,求在该事件的前提下碰见难题的概率的概率P(D|c,e)是多少?是多少?解:按照精确推理算法,该询问可表示为:解:按照精确推理算法,该询问可表示为:2023/4/18人工智能导论-刘珊17先对先对D的不同取值的不同取值d和和d分别进行处理分别进行处理,当当D取值取值d时,有时,有 4.6 贝叶斯网络培训专用示例示例2023/4/18人工智能导论-刘珊18当当D取值取值d时,有时,有取取=1/(0.0519+0.0901)=1/0.142。因此有因此有 P(D|c,e)=(0.0519,0.0901)=(0.3655,0.6345)即在思维迟缓和情绪波动都发生时即在思维迟缓和情绪波动都发生时,碰见难题,碰见难题的概率是的概率是P(d|c,e)=0.3655,没有碰见难题没有碰见难题的概率是的概率是P(d|c,e)=0.63454.6 贝叶斯网络培训专用贝叶斯贝叶斯网络近似推理网络近似推理马尔可夫链蒙特卡罗(马尔可夫链蒙特卡罗(MCMC)算法是目)算法是目前使用较广的前使用较广的一一类类贝叶斯网络推理贝叶斯网络推理方法方法。它它通过对前一通过对前一个事件状态个事件状态作随机改变来生作随机改变来生成下一个问题状态,通过对某个隐变量进成下一个问题状态,通过对某个隐变量进行随机采样来实现对随机变量的改变行随机采样来实现对随机变量的改变。MCMC方法可视为:在状态空间方法可视为:在状态空间中的中的随机随机走动,走动,但是证据变量的值固定但是证据变量的值固定不变。不变。2023/4/18人工智能导论-刘珊194.6 贝叶斯网络培训专用示例示例例例4、学习情绪会影响、学习情绪会影响学习效果。假设有一个学习效果。假设有一个知识点,考虑学生在愉知识点,考虑学生在愉快学习状态下对该知识快学习状态下对该知识点的识记、理解、运用点的识记、理解、运用的情况,得到了的情况,得到了如右图如右图所所示示的贝叶斯的贝叶斯网络。如网络。如果目前观察到一个学生果目前观察到一个学生不但记住了该知识,并不但记住了该知识,并且还可以运用该知识,且还可以运用该知识,询问这位学生是否理解询问这位学生是否理解了该知识。了该知识。2023/4/18人工智能导论-刘珊20愉快愉快学习学习知识知识识记识记知识知识理解理解知识知识运用运用EUMAE P(M)T 0.9 F 0.4 P(E)0.75M U P(A)T T 0.95T F 0.5F T 0.65F F 0.1E P(U)T 0.85F 0.34.6 贝叶斯网络培训专用示例示例解:要求的是解:要求的是P(U|m,a)。应用。应用MCMC算法的推理步骤如下:算法的推理步骤如下:(1)将将“知识识记知识识记”节点节点M和和“知识运用知识运用”节点节点A作为证据变量,并作为证据变量,并保持它们的观察值不变;保持它们的观察值不变;(2)隐隐变量变量“愉快学习愉快学习”节点节点E和查询变量和查询变量“知识理解知识理解”节点节点U进行进行随机初始化。假设,取值分别为随机初始化。假设,取值分别为e和和u,问题的初始状态为,问题的初始状态为 e,m,u,a;(3)反复执行如下反复执行如下步骤,步骤,对隐变量对隐变量E进行采样,由于进行采样,由于E的马尔科夫覆盖(其父节点、子节的马尔科夫覆盖(其父节点、子节点和子节点的父节点)仅包含节点点和子节点的父节点)仅包含节点M和和U,可以按照变量,可以按照变量M和和U的当的当前值进行采样,若采样得到前值进行采样,若采样得到e,则生成下一状态,则生成下一状态e,m,u,a;对查询变量对查询变量U进行采样,由于进行采样,由于U的马尔科夫覆盖包含节点的马尔科夫覆盖包含节点E、M和和A,可以按照变量,可以按照变量E、M和和A的当前值进行采样,若采样得到的当前值进行采样,若采样得到u,则生,则生成下一状态成下一状态e,m,u,a。(4)重复以上步骤直到所要求的访问次数重复以上步骤直到所要求的访问次数N。若为。若为true和和false的次数的次数分别为分别为n1,、n2,则查询解为,则查询解为Normalize()=2023/4/18人工智能导论-刘珊214.6 贝叶斯网络培训专用示例示例解:解:在上述采样过程中,每次采样都需要两步。以对隐变量在上述采样过程中,每次采样都需要两步。以对隐变量E的采样为例,每次采样步骤如下:的采样为例,每次采样步骤如下:1、先、先依据该隐变量的马尔科夫覆盖所包含的变量的当前值,计算该依据该隐变量的马尔科夫覆盖所包含的变量的当前值,计算该状态转移概率状态转移概率p;2、确定、确定状态是否需要改变。其基本方法是,生成一个随机数状态是否需要改变。其基本方法是,生成一个随机数r 0,1,将其与第一步得到的转移概率,将其与第一步得到的转移概率p进行比较,若进行比较,若rp,则,则E取取e,转,转移到下一状态;否则,还处在原状态不变移到下一状态;否则,还处在原状态不变。在在初始状态下,初始状态下,对变量对变量E进行采样,第一进行采样,第一步计算步计算P(E|m,u),以此判断是否转移以此判断是否转移到下一状态到下一状态e,m,u,a。P(e|m,u)=P(e,m,u)/P(m,u)=P(e)P(m|e)P(u|e)/P(e)P(m|e)P(u|e)+P(e)P(m|e)P(u|e)=(0.750.90.3)/0.750.90.3+0.250.40.3 =0.2025/0.2325=0.8710第二步,假设产生的随机数第二步,假设产生的随机数r=0.46,有,有0.46 0,证据的出现越是支持,证据的出现越是支持 H 为真,为真,就使就使CF(H,E)的的值越大。值越大。反之反之,CF(H,E)0,证据的出现越是支持,证据的出现越是支持 H 为为假,假,CF(H,E)的的值就越小。值就越小。若若证据的出现与否与证据的出现与否与 H 无关,则无关,则 CF(H,E)=02023/4/18人工智能导论-刘珊254.7 可信度方法培训专用2、证据、证据不确定性的不确定性的表示表示证据证据E的可信度取值范围:的可信度取值范围:-1,1。对于初始证据,若所有观察对于初始证据,若所有观察S能肯定它为真,则能肯定它为真,则CF(E)=1;若;若肯定它为假,则肯定它为假,则 CF(E)=1。若以某种程度为真,则若以某种程度为真,则 0 CF(E)1。若以某种程度为假,则若以某种程度为假,则 1 CF(E)0。若未获得任何相关的观察,则若未获得任何相关的观察,则 CF(E)=0。静态静态强度强度CF(H,E):知识的强度,即知识的强度,即当所对应的证当所对应的证据据E为为真时对真时对 H 的影响程度。的影响程度。动态动态强度强度 CF(E):证据证据 E 当前的不确定性程度当前的不确定性程度2023/4/18人工智能导论-刘珊264.7 可信度方法培训专用3、组合、组合证据不确定性的算法证据不确定性的算法组合证据:多个单一证据的组合证据:多个单一证据的合取合取E=E1 AND E2 AND AND En则则CF(E)=minCF(E1),CF(E1),CF(En)组合证据:多个单一证据的组合证据:多个单一证据的析取析取E=E1 OR E2 OR OR En 则则CF(E)=maxCF(E1),CF(E1),CF(En)2023/4/18人工智能导论-刘珊274.7 可信度方法培训专用4、不确定性、不确定性的传递的传递算法算法C-F模型中的不确定性推理:从不确定的模型中的不确定性推理:从不确定的初始证据出发,通过运用相关的不确定性初始证据出发,通过运用相关的不确定性知识,最终推出结论并求出结论的可信度知识,最终推出结论并求出结论的可信度值值。结论结论 H 的可信度由下式的可信度由下式计算计算:2023/4/18人工智能导论-刘珊28CF(E)0时,时,CF(H)=0;CF(E)=1时,时,CF(H)=CF(H,E)4.7 可信度方法培训专用5、结论、结论不确定性的合成不确定性的合成算算法法设知识:设知识:IF E1 THEN H(CF(H,E1)IF E2 THEN H(CF(H,E2)(1)分别对每一条知识求出)分别对每一条知识求出CF(H):CF1(H)=CF(H,E1)max0,CF(E1)CF2(H)=CF(H,E2)max0,CF(E2)(2)用如下公式求用如下公式求E1与与E2对对H的综合可信度的综合可信度 2023/4/18人工智能导论-刘珊294.7 可信度方法培训专用6、带、带加权因子的可信度推理加权因子的可信度推理当知识的前提条件为多个子条件当知识的前提条件为多个子条件组合,且组合,且这些这些子子条件对条件对结论的重要结论的重要程度不同时,程度不同时,在在前提条件中加入加权因子,以说明每个前前提条件中加入加权因子,以说明每个前提的重要程度提的重要程度。知识的不确定性知识的不确定性表示表示if E1(w1)and E2(w2)and and En(wn)then H CF(H,E)其中其中w1,w2,wn为加权因子,一般满足归一为加权因子,一般满足归一条件即条件即w1+w2+wn=12023/4/18人工智能导论-刘珊304.7 可信度方法培训专用带加权因子的可信度推理带加权因子的可信度推理组合证据不确定性的组合证据不确定性的计算计算若若E=E1(w1)and E2(w2)and and En(wn)则则E的可信度因子可以按如下方式的可信度因子可以按如下方式计算计算CF(E)=wi*CF(Ei)不确定性的不确定性的更新更新直观直观的方法的方法为:为:CF(H)=CF(H,E)*CF(E)2023/4/18人工智能导论-刘珊314.7 可信度方法培训专用示例示例例例1、已知规则、已知规则r1:if E1(0.6)and E2(0.4)then E5(0.8)r2:if E3(0.5)and E4(0.3)and E5(0.2)then H(0.9)以及以及 CF(E1)=0.9,CF(E2)=0.8,CF(E3)=0.7,CF(E4)=0.6求求CF(H)?2023/4/18人工智能导论-刘珊324.7 可信度方法培训专用示例示例解:解:CF(E5)=CF(E5,E)*CF(E)=0.8*0.86=0.69CF(E3(0.5)and E4(0.3)and E5(0.2)=0.67CF(H)=0.9*0.67=0.6032023/4/18人工智能导论-刘珊334.7 可信度方法培训专用第四章第四章 非经典推理非经典推理4.1 概述概述4.2 不确定性推理不确定性推理4.3 非单调推理非单调推理4.4 概率方法概率方法4.5 主观主观贝叶斯贝叶斯方法方法4.6 贝叶斯网络贝叶斯网络4.7 可信度可信度方法方法4.8 证据理论证据理论2023/4/18人工智能导论-刘珊34培训专用证据理论证据理论又称又称DS理论理论在证据理论的基础上已经发展了多种不确定性在证据理论的基础上已经发展了多种不确定性推理模型推理模型主要内容主要内容概率分配函数概率分配函数 信任信任函数函数 似然函数似然函数 信任信任函数与似然函数的关系函数与似然函数的关系概率概率分配函数的正交和(证据的分配函数的正交和(证据的组合)组合)基于证据理论的推理基于证据理论的推理2023/4/18人工智能导论-刘珊354.8 证据理论培训专用基本概念基本概念证据理论假设有一个不变的证据理论假设有一个不变的两两相斥的完备元素集合两两相斥的完备元素集合U,如右图所示,其中如右图所示,其中2023/4/18人工智能导论-刘珊36证据理论说明图证据理论说明图4.8 证据理论例如例如,U=三轮车,汽车,火车三轮车,汽车,火车U=赤,橙,黄,绿,青,蓝,赤,橙,黄,绿,青,蓝,紫紫U=马,牛,羊,鸡,狗,兔马,牛,羊,鸡,狗,兔培训专用基本概念基本概念证据理论用集合表示命题。证据理论用集合表示命题。设设D是变量是变量x所有可能取值的集合,且所有可能取值的集合,且D中的元素是互斥的,中的元素是互斥的,在任一时刻在任一时刻x都取都取D中的某一个元素为值,称中的某一个元素为值,称D为为x的样本的样本空间。空间。在证据理论中,在证据理论中,D的任何一个子集的任何一个子集A都对应于一个关于都对应于一个关于x的的命题,称该命题为命题,称该命题为“x的值在的值在A中中”。设设 x:所看到的颜色,:所看到的颜色,D=红,黄,蓝红,黄,蓝,则则 A=红红:“x 是红色是红色”;A=红,蓝红,蓝:“x 或者是红色,或者是蓝色或者是红色,或者是蓝色”。为了描述和处理不确定性,引入了概率分配函数、信任函数为了描述和处理不确定性,引入了概率分配函数、信任函数及似然函数等概念。及似然函数等概念。2023/4/18人工智能导论-刘珊374.8 证据理论培训专用概率分配函数概率分配函数设设D为样本空间,领域内的命题都用为样本空间,领域内的命题都用D的子集表示。的子集表示。定义:定义:设函数设函数M:,且满足且满足2023/4/18人工智能导论-刘珊384.8 证据理论则称则称M是是 上的概率分配函数,上的概率分配函数,M(A)称为称为A的基本概率函数。的基本概率函数。对样本空间对样本空间D的任一子集都分配一个概率值。的任一子集都分配一个概率值。培训专用概率分配函数概率分配函数2023/4/18人工智能导论-刘珊39几点说明:几点说明:(1)样本空间)样本空间D中有中有n个元素,则个元素,则D中子集的个数中子集的个数为为2n个个。2D:D的所有子集。的所有子集。(2)概概率率分分配配函函数数:把把D的的任任意意一一个个子子集集A都都映映射射为为0,1上上的一个数的一个数M(A)。)。A D,A D时时,M(A):对相应命题):对相应命题A的精确信任度。的精确信任度。(3)概率分配函数与概率不同。)概率分配函数与概率不同。例如,设例如,设 A=红红,M(A)=0.3:命题命题“x是红色是红色”的信任度是的信任度是0.3。设设 D=红,黄,蓝红,黄,蓝M(红红)=0.3,M(黄黄)=0,M(蓝蓝)=0.1,M(红,黄红,黄)=0.2,M(红,蓝红,蓝)=0.2,M(黄,蓝黄,蓝)=0.1,M(红,黄,蓝红,黄,蓝)=0.1,M()=0但:但:M(红红)+M(黄黄)+M(蓝蓝)=0.4设设 D=红,黄,蓝红,黄,蓝则其子集个数则其子集个数 238,具体为:,具体为:A=红红,A=黄黄,A=蓝蓝,A=红,黄红,黄,A=红红,蓝蓝,A=黄黄,蓝蓝,A=红红,黄黄,蓝蓝,A=4.8 证据理论培训专用信任函数信任函数2023/4/18人工智能导论-刘珊40 设设 D=红,黄,蓝红,黄,蓝M(红红)=0.3,M(黄黄)=0,M(红,黄红,黄)=0.2,由信任函数及概率分配函数的定义推出:由信任函数及概率分配函数的定义推出:4.8 证据理论培训专用似然函数似然函数似然函数定义为似然函数定义为 Pl:2D0,1且且pl(A)=1-Bel(A),A D2023/4/18人工智能导论-刘珊41 设设 D=红,黄,蓝红,黄,蓝M(红红)=0.3,M(黄黄)=0,M(红,黄红,黄)=0.2,Bel(红红,黄黄)=M(红红)+M(黄黄)+M(红红,黄黄)=0.5Pl(蓝蓝)=1-Bel(蓝蓝)=1-Bel(红红,黄黄)=1-0.5=0.5 4.8 证据理论培训专用信任函数与似然函数的关系信任函数与似然函数的关系Pl(A)Bel(A)Bel(A):对对A为真的信任程度。为真的信任程度。Pl(A):对对A为非假的信任程度。为非假的信任程度。A(Bel(A),Pl(A):对对A信任程度的下限与上限信任程度的下限与上限。例如例如红红:0.3,0.9表示表示红红的精确信任度为的精确信任度为0.3,不可驳斥部分为,不可驳斥部分为0.9典型典型值值A0,1:对:对A一无所知一无所知A0,0:说明:说明A为为假假A1,1:说明:说明A为真为真2023/4/18人工智能导论-刘珊424.8 证据理论培训专用概率分配函数的正交和概率分配函数的正交和2023/4/18人工智能导论-刘珊43如果如果K 0,则正交和则正交和 M也是一个也是一个概率分配函数概率分配函数;如果如果K=0,则不存在正交和则不存在正交和 M,即没有可能存在概率,即没有可能存在概率函数,函数,称称M1与与M2矛盾矛盾。4.8 证据理论设设M1和和M2是两个概率分配函数,则其正交和定义为是两个概率分配函数,则其正交和定义为培训专用概率分配函数的正交和概率分配函数的正交和设设M1,M2,Mn是是n个个概率分配概率分配函数函数,则则其其正交和正交和 M=M1 M2 Mn为为M()=0,2023/4/18人工智能导论-刘珊44其中:其中:4.8 证据理论培训专用实例实例设设D=黑,白黑,白,且,且2023/4/18人工智能导论-刘珊45则,则,4.8 证据理论培训专用实例实例同理可得:同理可得:2023/4/18人工智能导论-刘珊46组合后得到的概率分配函数:组合后得到的概率分配函数:4.8 证据理论培训专用一类特殊的概率分配函数一类特殊的概率分配函数设设D=s1,s2,sn,M为为定义在定义在2D上上的概率的概率分配函数,分配函数,且且M满足满足:M(si)0,对任给对任给si Di=1n M(si)1M(D)=1-i=1n M(si)当当AD,且且A的元素多于的元素多于1个或没有元素个或没有元素,M(A)=0。2023/4/18人工智能导论-刘珊474.8 证据理论培训专用一类特殊的概率分配函数一类特殊的概率分配函数对对这类这类概率概率分配函数分配函数,其信任,其信任函数和似然函数和似然函数的函数的性质为:性质为:Bel(A)=si AM(si)Bel(D)=si DM(si)+M(D)=1Pl(A)=1-Bel(A)=1-si AM(si)=1-si DM(si)+si AM(si)=M(D)+Bel(A)Pl(D)=1-Bel(D)=12023/4/18人工智能导论-刘珊484.8 证据理论培训专用类概率函数类概率函数设设D为为有限域,对任何命题有限域,对任何命题AD,其,其类类概概率函数定义为率函数定义为f(A)=Bel(A)+|A|/|D|Pl(A)-Bel(A)其中其中|A|和和|D|表示表示A和和D中中的元素个数的元素个数。类概率函数的性质类概率函数的性质si Df(si)=1对任何对任何AD,有,有Bel(A)f(A)Pl(A)对任何对任何AD,有,有f(A)=1-f(A)则,则,f()=0;f(D)=1;对;对任何任何AD,0f(A)12023/4/18人工智能导论-刘珊494.8 证据理论培训专用规则不确定性规则不确定性的表示的表示D-S理论中,理论中,不确定性规则的不确定性规则的表示形式为表示形式为if E then H=h1,h2,hn CF=c1,c2,cn其中:其中:E为前提条件为前提条件,可以,可以是简单条件,也是简单条件,也可可以以是复合条件;是复合条件;H是结论是结论,用,用样本空间的子集表示,样本空间的子集表示,h1,h2,hn是该子集的元素;是该子集的元素;CF是可信度因子,用集合的方式表示。是可信度因子,用集合的方式表示。c1,c2,cn用来表示用来表示h1,h2,hn的可信度的可信度。2023/4/18人工智能导论-刘珊504.8 证据理论培训专用证据不确定性的表示证据不确定性的表示证据证据E的不确定性由的不确定性由证据的类概率函数给证据的类概率函数给出出:CER(E)=f(E)2023/4/18人工智能导论-刘珊514.8 证据理论培训专用不确定性的更新不确定性的更新设有知识设有知识if E then H=h1,h2,hn CF=c1,c2,cn根据证据根据证据E的不确定性为的不确定性为CER(E),确定结论,确定结论H的不确定性描述的不确定性描述CER(H),方法如下:,方法如下:1)求)求H的概率分配的概率分配函数:函数:M(h1,h2,hn)=(c1CER(E),c2CER(E),cnCER(E);M(D)=1-i=1n M(hi)2)求求Bel(H),Pl(H)及及f(H):Bel(H)=i=1n M(hi);Pl(H)=1-Bel(H);f(H)=Bel(H)+|H|/|D|M(D)3)CER(H)=f(H)2023/4/18人工智能导论-刘珊524.8 证据理论培训专用结论不确定性的合成结论不确定性的合成如果有两条知识支持同一结论如果有两条知识支持同一结论if E1 then H=h1,h2,hn CF=c1,c2,cnif E2 then H=h1,h2,hn CF=e1,e2,en先求出每条知识的概率分配先求出每条知识的概率分配函数函数M1,M2,然后求出然后求出两个概率分配函数的两个概率分配函数的正交和正交和M1 M2;以正交和作为以正交和作为H的概率分配的概率分配函数。函数。2023/4/18人工智能导论-刘珊534.8 证据理论培训专用推理推理步骤:步骤:(1)建立问题的样本空间)建立问题的样本空间D。(2)由经验给出,或者由随机性规则和事实)由经验给出,或者由随机性规则和事实的可信度计算基本的可信度计算基本概率分配函数。概率分配函数。(3)计算所关心的子集的信任函数值、似然)计算所关心的子集的信任函数值、似然函数值。函数值。(4)由信任函数值、似然函数值得出结论。)由信任函数值、似然函数值得出结论。2023/4/18人工智能导论-刘珊544.8 证据理论培训专用实例实例例例1、设有规则、设有规则:(1)如果)如果 流鼻涕,流鼻涕,则则 感冒但非过敏性鼻炎感冒但非过敏性鼻炎(0.9)或)或 过敏性鼻炎但非感冒(过敏性鼻炎但非感冒(0.1););(2)如果)如果 眼眼发炎,发炎,则则 感冒但非过敏性鼻炎感冒但非过敏性鼻炎(0.8)或)或 过敏性鼻炎但非感冒(过敏性鼻炎但非感冒(0.05)。)。有事实有事实:(1)小王流鼻涕()小王流鼻涕(0.9););(2)小王发眼炎()小王发眼炎(0.4)。)。问:小王患的什么病?问:小王患的什么病?2023/4/18人工智能导论-刘珊554.8 证据理论培训专用实例实例解:解:取取样本空间样本空间D=h1,h2,h3,h1表示表示“感冒但非过敏感冒但非过敏性鼻炎性鼻炎”,h2表示表示“过敏性鼻炎但非感冒过敏性鼻炎但非感冒”,h3表示表示“同时得了两种病同时得了两种病”。计算计算概率概率分配分配函数:函数:2023/4/18人工智能导论-刘珊564.8 证据理论培训专用2023/4/18人工智能导论-刘珊57将两个概率分配函数组合:将两个概率分配函数组合:4.8 证据理论培训专用2023/4/18人工智能导论-刘珊58似然函数:似然函数:结论:小王可能是感冒了。结论:小王可能是感冒了。信任函数:信任函数:4.8 证据理论培训专用小结小结贝叶斯网络定义、构造简单应用精确推理近似推理可信度方法可信度C-F模型证据理论信任函数似然函数推理2023/4/18人工智能导论-刘珊59培训专用演讲完毕,谢谢观看!培训专用内容总结第四章 非经典推理。独立和条件独立。Xn=xn),其简化表示形式为P(x1,x2,。例1、假设学生在碰见难题和遇到干扰时会产生焦虑,而焦虑又可导致思维迟缓和情绪波动。由于节点D和I无父节点,故它们的条件概率表由其先验概率来填充。(1)首先建立不依赖于其它节点的根节点,并且根节点可以不止一个。此时,根节点已成为父节点。(3)进一步建立依赖于已建节点的子节点。对每个中间节点和叶节点,给出其条件概率表。P(ceadi)。=0.80.90.10.850.95。先对D的不同取值d和d分别进行处理,。它通过对前一个事件状态作随机改变来生成下一个问题状态,通过对某个隐变量进行随机采样来实现对随机变量的改变。解:在上述采样过程中,每次采样都需要两步。以对隐变量E的采样为例,每次采样步骤如下:。CF(H,E)的取值范围:-1,1。证据E的可信度取值范围:-1,1。组合证据:多个单一证据的析取。,wn为加权因子,一般满足归一条件即w1+w2+。(1)样本空间D中有n个元素,则D中子集的个数为2n个。(3)概率分配函数与概率不同。M(A)=0.3:命题“x是红色”的信任度是0.3。A0,1:对A一无所知培训专用