人工智能导论-第四章02-59(共61张PPT).pptx
《人工智能导论-第四章02-59(共61张PPT).pptx》由会员分享,可在线阅读,更多相关《人工智能导论-第四章02-59(共61张PPT).pptx(61页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第四章第四章 非经典推理非经典推理4.1 概述概述4.2 不确定性不确定性推理推理4.3 非单调推理非单调推理4.4 概率方法概率方法4.5 主观主观贝叶斯贝叶斯方法方法4.6 贝叶斯网络贝叶斯网络4.7 可信度可信度方法方法4.8 证据理论证据理论2023/4/18人工智能导论-刘珊1培训专用基本框架基本框架2023/4/18人工智能导论-刘珊2培训专用贝叶斯贝叶斯网络网络全联合概率分布全联合概率分布贝叶斯网络的定义贝叶斯网络的定义独立和条件独立独立和条件独立贝叶斯网络的构造贝叶斯网络的构造贝叶斯贝叶斯网络网络的应用的应用精确推理精确推理近似推理近似推理2023/4/18人工智能导论-刘珊3
2、4.6 贝叶斯网络培训专用全联合概率分布全联合概率分布定义定义设设X=X1,X2,Xn 为任何随机变量集,其全联合概率分布为任何随机变量集,其全联合概率分布是指当对每个变量取特定值时是指当对每个变量取特定值时xi(i=1,2,n)时的合取概率,)时的合取概率,即即 P(X1=x1X2=x2Xn=xn),其,其简化表示形式为简化表示形式为P(x1,x2,xn)。重复使用乘法重复使用乘法法则法则2023/4/18人工智能导论-刘珊4得到如下全联合概率分布表示得到如下全联合概率分布表示4.6 贝叶斯网络培训专用贝叶斯网络贝叶斯网络基本概念基本概念一系列变量的联合概率分布的图形一系列变量的联合概率分布
3、的图形表示表示一个表示变量之间的相互依赖关系的一个表示变量之间的相互依赖关系的数据结构数据结构定义定义是一个有向无环是一个有向无环图图随机变量随机变量集集X=X1,X2,Xn 组成组成网络节点,变量网络节点,变量可离散或连续可离散或连续连接节点对的有向边组成边集合连接节点对的有向边组成边集合每节点每节点Xi都有一个条件概率分布表:都有一个条件概率分布表:P(Xi|par(Xi),量化其父节点对该节点的,量化其父节点对该节点的影响影响2023/4/18人工智能导论-刘珊54.6 贝叶斯网络培训专用示例示例例例1、假设、假设学生在碰见难题和遇到干扰时会产生焦学生在碰见难题和遇到干扰时会产生焦虑,而
4、焦虑又可导致思维迟缓和情绪波动。请用虑,而焦虑又可导致思维迟缓和情绪波动。请用贝叶斯网络描述这一问题贝叶斯网络描述这一问题。解:在该贝叶斯网络中,大写英文字母解:在该贝叶斯网络中,大写英文字母A、D、I、C和和E分别表示分别表示节点节点“产生焦虑产生焦虑”、“碰见难题碰见难题”、“遇到干扰遇到干扰”、“认知迟缓认知迟缓”和和“情绪波动情绪波动”,并将各节点的条件概率表置于相应节点的右侧并将各节点的条件概率表置于相应节点的右侧。所有随机变量取布尔变量,因此可以分别用小写所有随机变量取布尔变量,因此可以分别用小写英文字母英文字母a、d、i、c和和e来表示布尔变量来表示布尔变量A、D、I、C和和E取
5、逻辑值为取逻辑值为“True”,用,用a、d、i、c和和e来表示布尔变量来表示布尔变量A、D、I、C和和E取逻辑取逻辑值为值为“False”。2023/4/18人工智能导论-刘珊64.6 贝叶斯网络培训专用示例示例右图贝叶斯右图贝叶斯网络中网络中每个节点的概率表每个节点的概率表就是该节点与其父就是该节点与其父节点之间的一个局节点之间的一个局部条件概率部条件概率分布。分布。由于节点由于节点D和和I无父无父节点,故它们的条节点,故它们的条件概率表由其先验件概率表由其先验概率来填充概率来填充2023/4/18人工智能导论-刘珊7碰见碰见难题难题产生焦虑产生焦虑遇到遇到干扰干扰思维思维迟缓迟缓情绪情绪
6、波动波动ADIECA P(C)T 0.8A P(E)T 0.9 P(D)0.15P(I)0.05D I P(A)T T 0.8T F 0.4F T 0.5F F 0.14.6 贝叶斯网络培训专用联合概率分布联合概率分布表示表示贝叶斯网络的联合概率分布贝叶斯网络的联合概率分布表示表示用用par(Xi)表示表示Xi的所有父节点的相应的所有父节点的相应取值,取值,P(Xi|par(Xi)是节点是节点Xi的一个条件概率分布函数,的一个条件概率分布函数,则对则对X的所有节点的所有节点,有如,有如下联合概率分布:下联合概率分布:2023/4/18人工智能导论-刘珊8局部化特征局部化特征每个节点只受到整个节
7、点集中少数别的节点的直接影响,而每个节点只受到整个节点集中少数别的节点的直接影响,而不受这些节点外的其它节点的直接不受这些节点外的其它节点的直接影响。影响。贝叶斯网叶斯网络的的语义4.6 贝叶斯网络培训专用独立和条件独立独立和条件独立nWeather和其它和其它3个变量相个变量相互互独立。独立。n给定给定Cavity后,后,Toothache和和Catch条件独立条件独立2023/4/18人工智能导论-刘珊9WeatherCavityCatchToothachen贝叶斯网络能实现简化计算的最根本基础贝叶斯网络能实现简化计算的最根本基础-条件独立性。条件独立性。n两两个判别准则个判别准则n1)给
8、定)给定父节点,一个节点与非其后代的节点之间是条件独立的父节点,一个节点与非其后代的节点之间是条件独立的。n2)给定)给定一个节点,该节点与其父节点、子节点和子节点的父节一个节点,该节点与其父节点、子节点和子节点的父节点一起构成了一个点一起构成了一个马尔科夫覆盖马尔科夫覆盖,则该节点与马尔科夫覆盖以外的所,则该节点与马尔科夫覆盖以外的所有节点之间都是条件独立的。有节点之间都是条件独立的。4.6 贝叶斯网络培训专用条件独立条件独立2023/4/18人工智能导论-刘珊10U1Um XZ1jZnjY1Yn【说明说明】:给定节点给定节点X的的父节点父节点U1.Um,节点,节点X与它的与它的非后代节点非
9、后代节点(即(即Zij)是条)是条件独立的。件独立的。4.6 贝叶斯网络培训专用条件独立条件独立2023/4/18人工智能导论-刘珊11【说明说明】:给定给定马尔可夫马尔可夫覆盖覆盖(两圆圈之(两圆圈之间的区域),节间的区域),节点点X和和马尔可夫马尔可夫覆盖覆盖中中所有其它所有其它节点都是条件节点都是条件独立的。独立的。U1Um XZ1jZnjY1Yn4.6 贝叶斯网络培训专用贝叶斯网络的构造贝叶斯网络的构造构造构造过程过程(1)首先首先建立不依赖于其它节点的根节点,并且根建立不依赖于其它节点的根节点,并且根节点可以不止一个。节点可以不止一个。(2)加入加入受根节点影响的节点,并将这些节点作
10、为受根节点影响的节点,并将这些节点作为根节点的子节点。此时,根节点已成为父节点。根节点的子节点。此时,根节点已成为父节点。(3)进一步进一步建立依赖于已建节点的子节点。重复这建立依赖于已建节点的子节点。重复这一过程直到叶节点为止。一过程直到叶节点为止。(4)对每个根节点,给出其先验概率;对每个中间对每个根节点,给出其先验概率;对每个中间节点和叶节点,给出其条件概率表节点和叶节点,给出其条件概率表。主要原则主要原则忽略过于微弱的依赖关系忽略过于微弱的依赖关系利用变量间的因果关系利用变量间的因果关系2023/4/18人工智能导论-刘珊124.6 贝叶斯网络培训专用贝叶斯网络的简单应用贝叶斯网络的简
11、单应用例例2、对、对例例1所所示的贝叶斯网络,若示的贝叶斯网络,若假设某学生已经假设某学生已经产产生了焦虑情绪,但实际上并未碰见难题,也未遇到生了焦虑情绪,但实际上并未碰见难题,也未遇到干扰,请计算思维迟缓和情绪波动的概率。干扰,请计算思维迟缓和情绪波动的概率。解:令相应变量的取值分别为:解:令相应变量的取值分别为:a,d,i,c,e,P(c e a d i)=P(c|a)P(e|a)P(a|d i)P(d)P(i)=0.80.90.10.850.95 =0.05814即所求的概率为即所求的概率为0.058142023/4/18人工智能导论-刘珊134.6 贝叶斯网络培训专用贝叶斯网络推理贝叶
12、斯网络推理概念概念在在给定一组证据变量观察值的情况下,利用贝叶斯给定一组证据变量观察值的情况下,利用贝叶斯网络计算一组查询变量的后验概率网络计算一组查询变量的后验概率分布。分布。变量分类变量分类查询查询变量变量X证据变量集证据变量集E=E1,E2,En观察观察到的特定到的特定事件事件s非非证据证据变量集变量集Y=y1,y2,ym全部全部变量的集合变量的集合V=x E Y其其推理就是要查询后验概率推理就是要查询后验概率P(X|s)。2023/4/18人工智能导论-刘珊144.6 贝叶斯网络培训专用贝叶斯网络推理贝叶斯网络推理步骤步骤首先确定各相邻节点之间的初始条件概率分布首先确定各相邻节点之间的
13、初始条件概率分布;然后然后对各证据节点取值对各证据节点取值;接着接着选择适当推理算法对各节点的条件概率分布进选择适当推理算法对各节点的条件概率分布进行更新行更新;最终最终得到推理结果得到推理结果。分类分类精确精确推理:一推理:一种可以精确地计算查询变量的后验概种可以精确地计算查询变量的后验概率率的推理方法,适用于单连通贝叶斯网络。的推理方法,适用于单连通贝叶斯网络。近似推理:在近似推理:在不影响推理正确性的前提下,通过适不影响推理正确性的前提下,通过适当降低推理精确度来提高推理效率的一类当降低推理精确度来提高推理效率的一类方法。方法。2023/4/18人工智能导论-刘珊154.6 贝叶斯网络培
14、训专用贝叶斯网络精确推理贝叶斯网络精确推理主要方法主要方法基于枚举的基于枚举的算法算法基于基于变量消元的变量消元的算法算法基于基于团树传播的团树传播的算法等算法等基于枚举的基于枚举的算法算法利用利用全联合概率分布去推断查询变量的后验概全联合概率分布去推断查询变量的后验概率率2023/4/18人工智能导论-刘珊164.6 贝叶斯网络培训专用示例示例例例3、以、以例例1所所示的贝叶斯网络为例,假设目前观察到示的贝叶斯网络为例,假设目前观察到的一个事件的一个事件s=c,e,求在该事件的前提下碰见难题,求在该事件的前提下碰见难题的概率的概率P(D|c,e)是多少?是多少?解:按照精确推理算法,该询问可
15、表示为:解:按照精确推理算法,该询问可表示为:2023/4/18人工智能导论-刘珊17先对先对D的不同取值的不同取值d和和d分别进行处理分别进行处理,当当D取值取值d时,有时,有 4.6 贝叶斯网络培训专用示例示例2023/4/18人工智能导论-刘珊18当当D取值取值d时,有时,有取取=1/(0.0519+0.0901)=1/0.142。因此有因此有 P(D|c,e)=(0.0519,0.0901)=(0.3655,0.6345)即在思维迟缓和情绪波动都发生时即在思维迟缓和情绪波动都发生时,碰见难题,碰见难题的概率是的概率是P(d|c,e)=0.3655,没有碰见难题没有碰见难题的概率是的概率
16、是P(d|c,e)=0.63454.6 贝叶斯网络培训专用贝叶斯贝叶斯网络近似推理网络近似推理马尔可夫链蒙特卡罗(马尔可夫链蒙特卡罗(MCMC)算法是目)算法是目前使用较广的前使用较广的一一类类贝叶斯网络推理贝叶斯网络推理方法方法。它它通过对前一通过对前一个事件状态个事件状态作随机改变来生作随机改变来生成下一个问题状态,通过对某个隐变量进成下一个问题状态,通过对某个隐变量进行随机采样来实现对随机变量的改变行随机采样来实现对随机变量的改变。MCMC方法可视为:在状态空间方法可视为:在状态空间中的中的随机随机走动,走动,但是证据变量的值固定但是证据变量的值固定不变。不变。2023/4/18人工智能
17、导论-刘珊194.6 贝叶斯网络培训专用示例示例例例4、学习情绪会影响、学习情绪会影响学习效果。假设有一个学习效果。假设有一个知识点,考虑学生在愉知识点,考虑学生在愉快学习状态下对该知识快学习状态下对该知识点的识记、理解、运用点的识记、理解、运用的情况,得到了的情况,得到了如右图如右图所所示示的贝叶斯的贝叶斯网络。如网络。如果目前观察到一个学生果目前观察到一个学生不但记住了该知识,并不但记住了该知识,并且还可以运用该知识,且还可以运用该知识,询问这位学生是否理解询问这位学生是否理解了该知识。了该知识。2023/4/18人工智能导论-刘珊20愉快愉快学习学习知识知识识记识记知识知识理解理解知识知
18、识运用运用EUMAE P(M)T 0.9 F 0.4 P(E)0.75M U P(A)T T 0.95T F 0.5F T 0.65F F 0.1E P(U)T 0.85F 0.34.6 贝叶斯网络培训专用示例示例解:要求的是解:要求的是P(U|m,a)。应用。应用MCMC算法的推理步骤如下:算法的推理步骤如下:(1)将将“知识识记知识识记”节点节点M和和“知识运用知识运用”节点节点A作为证据变量,并作为证据变量,并保持它们的观察值不变;保持它们的观察值不变;(2)隐隐变量变量“愉快学习愉快学习”节点节点E和查询变量和查询变量“知识理解知识理解”节点节点U进行进行随机初始化。假设,取值分别为随
19、机初始化。假设,取值分别为e和和u,问题的初始状态为,问题的初始状态为 e,m,u,a;(3)反复执行如下反复执行如下步骤,步骤,对隐变量对隐变量E进行采样,由于进行采样,由于E的马尔科夫覆盖(其父节点、子节的马尔科夫覆盖(其父节点、子节点和子节点的父节点)仅包含节点点和子节点的父节点)仅包含节点M和和U,可以按照变量,可以按照变量M和和U的当的当前值进行采样,若采样得到前值进行采样,若采样得到e,则生成下一状态,则生成下一状态e,m,u,a;对查询变量对查询变量U进行采样,由于进行采样,由于U的马尔科夫覆盖包含节点的马尔科夫覆盖包含节点E、M和和A,可以按照变量,可以按照变量E、M和和A的当
20、前值进行采样,若采样得到的当前值进行采样,若采样得到u,则生,则生成下一状态成下一状态e,m,u,a。(4)重复以上步骤直到所要求的访问次数重复以上步骤直到所要求的访问次数N。若为。若为true和和false的次数的次数分别为分别为n1,、n2,则查询解为,则查询解为Normalize()=2023/4/18人工智能导论-刘珊214.6 贝叶斯网络培训专用示例示例解:解:在上述采样过程中,每次采样都需要两步。以对隐变量在上述采样过程中,每次采样都需要两步。以对隐变量E的采样为例,每次采样步骤如下:的采样为例,每次采样步骤如下:1、先、先依据该隐变量的马尔科夫覆盖所包含的变量的当前值,计算该依据
21、该隐变量的马尔科夫覆盖所包含的变量的当前值,计算该状态转移概率状态转移概率p;2、确定、确定状态是否需要改变。其基本方法是,生成一个随机数状态是否需要改变。其基本方法是,生成一个随机数r 0,1,将其与第一步得到的转移概率,将其与第一步得到的转移概率p进行比较,若进行比较,若rp,则,则E取取e,转,转移到下一状态;否则,还处在原状态不变移到下一状态;否则,还处在原状态不变。在在初始状态下,初始状态下,对变量对变量E进行采样,第一进行采样,第一步计算步计算P(E|m,u),以此判断是否转移以此判断是否转移到下一状态到下一状态e,m,u,a。P(e|m,u)=P(e,m,u)/P(m,u)=P(
22、e)P(m|e)P(u|e)/P(e)P(m|e)P(u|e)+P(e)P(m|e)P(u|e)=(0.750.90.3)/0.750.90.3+0.250.40.3 =0.2025/0.2325=0.8710第二步,假设产生的随机数第二步,假设产生的随机数r=0.46,有,有0.46 0,证据的出现越是支持,证据的出现越是支持 H 为真,为真,就使就使CF(H,E)的的值越大。值越大。反之反之,CF(H,E)0,证据的出现越是支持,证据的出现越是支持 H 为为假,假,CF(H,E)的的值就越小。值就越小。若若证据的出现与否与证据的出现与否与 H 无关,则无关,则 CF(H,E)=02023/
23、4/18人工智能导论-刘珊254.7 可信度方法培训专用2、证据、证据不确定性的不确定性的表示表示证据证据E的可信度取值范围:的可信度取值范围:-1,1。对于初始证据,若所有观察对于初始证据,若所有观察S能肯定它为真,则能肯定它为真,则CF(E)=1;若;若肯定它为假,则肯定它为假,则 CF(E)=1。若以某种程度为真,则若以某种程度为真,则 0 CF(E)1。若以某种程度为假,则若以某种程度为假,则 1 CF(E)0。若未获得任何相关的观察,则若未获得任何相关的观察,则 CF(E)=0。静态静态强度强度CF(H,E):知识的强度,即知识的强度,即当所对应的证当所对应的证据据E为为真时对真时对
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工智能 导论 第四 02 59 61 PPT
限制150内