神经网络 第四章幻灯片.ppt
《神经网络 第四章幻灯片.ppt》由会员分享,可在线阅读,更多相关《神经网络 第四章幻灯片.ppt(172页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、神经网络 第四章第1页,共172页,编辑于2022年,星期二4.1 Hopfield神经网络 美国加州工学院物理学家J.J.Hopfleld于1982年 和1984年分别提出了两种神经网络模型,简称 HNN。n 离散的随机模型(离散离散Hopfleld网络网络)n 确定论模型(连续连续Hopfleld网络网络)第2页,共172页,编辑于2022年,星期二 HNN模型是目前得到了最充分研究和广泛应用的反馈式神经元网络模型。Hopfield将“能能量量函函数数”(也称李雅普诺夫函数)的概念引入分析一类人工神经元网络的稳定过程,使网络运行的稳稳定定性性判判断断有了可靠和简便的依据。开辟了人工神经网络
2、应用于联联想想记记忆忆和优优化化计算计算等领域的范围。由于Hopfield网络与电子电路存在明显的对应关系,所以使得这种网络易于理解和便于实现。显然,为神经网络计算机的研究奠定了基础。第3页,共172页,编辑于2022年,星期二Hopfield网络的基本思想nHopfield网络作为一种全连接型神经网络曾经在人工神经网络研究发展历程中起过唤起希望、开辟研究新途径的作用。n它用与阶层型神经网络不同的结构特征和学习方法,模模拟拟生生物物神神经经网网络络的的记记忆忆机机理理,获得了令人满意的结果。第4页,共172页,编辑于2022年,星期二 1985年Hopfield和DWTank用这种网络模型成功
3、地求解了优化组合问题中的具有典型意义的旅行商(TSP)问题,在所有随机选择的路径中找到了其中十万分之一的最优路径,这在当时是神经网络研究工作中所取得的突破性进展。Hopfield是从物理学磁磁场场理理论论中受到启发,结合生物神经网络的思维机理而提出这一网络模型的。第5页,共172页,编辑于2022年,星期二 磁场也是种具有记忆功能的物质,人们很早就利用磁场的记忆功能创造出许多很有价值的产品,如目前广泛使用的计算机磁盘。由物理学知识可知:在磁性材料中游动着大量的磁旋,正是由于这些带有方向的磁旋的相互作用,才产生了磁场本身所具有的各种性质。在永久磁铁中,由于所有的磁旋都朝向一个方向,构成了磁铁的N
4、极和S极的两极特性。第6页,共172页,编辑于2022年,星期二nHopfield网络的网络的基本思想基本思想:n用人工神经元模拟的磁旋,用神经元之间的连接 权模拟磁场中磁场中磁旋的相互作用;n用各神经元的“激活”和“抑制”两种状态,模拟磁场中磁旋的上、下两个方向,构成一个具有记忆功能的神经网络系统;v引用物理学中有关能量的概念,用“计算能量函数”(ComPutational Energy Function)来评价和指导整个网络的记忆功能。第7页,共172页,编辑于2022年,星期二磁场与神经网络的对照示意图第8页,共172页,编辑于2022年,星期二Hopfield网络的结构和算法n 离散型
5、Hopfield网络结构如图。第9页,共172页,编辑于2022年,星期二第10页,共172页,编辑于2022年,星期二 Hopfield为一层结构的反馈网络,能处理双双极极型型离离散散数数据据,即输入 及二进制数据二进制数据 当网络经过训练后,可以认为网络处于等待等待工作状态。第11页,共172页,编辑于2022年,星期二对网络给定初始输入x时,网络就处于特定的初始状态,由此初始状态开始运行,可以得到网络输出即网络的下一状态;然后,这个输出状态通过反馈回送到网络的输入端,作为网络下一阶段运行的输入信号,而这个输入信号可能与初始输入信号不同,由这个新的输入又可得到下步的输出,这个输出也可能与上
6、一步的输出不同;第12页,共172页,编辑于2022年,星期二如此下去,网网络络的整个运行的整个运行过过程就是上述反程就是上述反馈过馈过程的程的重复重复。如果网络是稳定的,那么,随着许多次反馈运行,网络状态的变化减少,直到后来不再变化达到稳态。这时,在网络的输出端可以得到稳定的输出。第13页,共172页,编辑于2022年,星期二这是一个只有四个神经元的离散型Hopfield网络。第14页,共172页,编辑于2022年,星期二 其中每个神经元只能取“1”,或“0”两个状态。设网络有n个神经元,则各个神经元的状态可用向量U表示:U(u1,u2,,un)其中,ui1或0 (i1,2,n)Hopfie
7、ld网络的各个神经元都是相相互互连连接接的,即每一个神经元都将自己的输出通过连接权传送给所有其它神经元,同时每个神经元又都接收所有其它神经元传递过来的信息。第15页,共172页,编辑于2022年,星期二 特别值得注意的是,由于Hopfield网络的这种结构特征,对于每一个神经元来说、自己输出的信号经过其它神经元又反馈回自己,所以也可以认为Hopfield网络是一种反反馈馈型神型神经经网网络络。其它形式的Hopfield网络结构:第16页,共172页,编辑于2022年,星期二第17页,共172页,编辑于2022年,星期二 对于Hopfield网络已有定理证明:当当网网络络满满足足以以下下 两两个
8、个条条件件时时,Hopfield学学习习算算法法总总是是收收敛的敛的。n(1)网络的连接权矩阵无自连接且具有对称性,即 这一假设条件虽然不符合生物神经网络的实际情况(生物神经元之间连接强度通常是不对称的)。但是却与磁场中各磁旋的相互作用情况相一致。第18页,共172页,编辑于2022年,星期二(2)网络中各神经元以非同步或串行方式,依据 运行规则改变其状态,即各神经元按随机选 取方式,依据运行规则改变状态;且当某个 神经元改变状态时其它所有神经元保持原 状态不变。这一点符合生物神经网络的情况。这一点符合生物神经网络的情况。第19页,共172页,编辑于2022年,星期二 (1)串行(异步)方式:
9、任一时刻只有一个单元改变状态只有一个单元改变状态,其余单元不 变(动作顺序可以随机选择或按某种确定顺序选 择)。(2)并行(同步)方式:某一时刻所有神经元同时改变状态(常称这种工 作方式的网络为Litt1e模型)。第20页,共172页,编辑于2022年,星期二Hopfield网络运行规则 神经网络主要有两种运行方式运行方式:n一种是前面介绍过的学习运行方式,即通过对训练模式的学习,调整连接权达到模式记忆的目的;n另一种就是下面将要介绍的工作运行方式。在这种运行方式中,各连接权值是固定的,只是通过按一定规则的计算,更新网络的状态,以求达到网络的稳定状态。第21页,共172页,编辑于2022年,星
10、期二 图是Hopfield网络中某个神经元的结构图。设网络由n个这样的神经元构成。时刻t第i个神经元的输出为:第22页,共172页,编辑于2022年,星期二 上式表明:当所有其它神经元输出的加权总和超过第i个神经元的输出阈值时,此神经元被“激活”、否则将受到”抑制”。这里特别应该注意的是,改变状态的神经元ui,并不是按顺顺序序进行的,而是按随机的方式选取随机的方式选取的。第23页,共172页,编辑于2022年,星期二下面将Hopfield工作运行规则工作运行规则总结如下:(1)从网络中随机选取一个神经元ui;(2)求所选中的神经元ui的所有输入的加权总和;(3)计算ui的第t+1时刻的输出值,
11、即第24页,共172页,编辑于2022年,星期二(4)ui以外的所有神经元输出保持不变(5)返回到第一步,直至网络进如稳定状态。第25页,共172页,编辑于2022年,星期二 Hopfield网络是一种具有反馈性质的网络,而反馈网络的一个重要特点就是它具有稳定状态,也称为吸引子。那么Hopfield网网络络的的稳稳定状定状态态是怎是怎样样的呢的呢?当网络结构满足前面所指出的两个条件时,按上述工作运行规则反复更新状态,当更新进行到一定程度之后,我们会发现无论再怎样更新下去,网络各神经元的输出状态不再改变,这就是Hopfield网络的稳定状态。第26页,共172页,编辑于2022年,星期二用数学表
12、示为 一一般般情情况况下下,一一个个Hopfield网网络络必必须须经经过过多多次次反反复复更更新新才才能达到稳定状态能达到稳定状态。第27页,共172页,编辑于2022年,星期二网络计算能量函数与网络收敛 从Hopfoeld网络工作运行规则可以看出,网络中某个神经元t时刻的输出状态,通过其它神经元间接地与自己的t-1时刻的输出状态发生联系。这一特性从数数学学的的观观点点看,网络的状态变化可用差分方程表征;第28页,共172页,编辑于2022年,星期二 从系统动力学的观点看,此时的网络已不象误差反向传播那样只是非线性映射的网络,而是一个反馈动力学系统。准确地说是一个多输入、多输出、带阈值的二态
13、非非线线性动力学系统性动力学系统。第29页,共172页,编辑于2022年,星期二 一个抽象的动力学系统,与一个具有实际物理意义的动力学系统比较,抽抽象象系系统统的的动动态态过过程程必必定定是是使使某某个个与与实实际际系统形式上一致的系统形式上一致的“能量函数能量函数”减小的过程。减小的过程。nHopfie1d网络也同样如此。在满足一定的参数条件下,某种“能量函数”的能量在网络运行过程中不断地降低最后趋于稳定的平衡状态。第30页,共172页,编辑于2022年,星期二 设t时刻网络的状态用n个神经元的输出向量U(t)表示:设每个神经元只有“1”或“0”两种状态,所以n个神经元共有2n个组合状态,即
14、网络具有2n 种状态。从几何学的角度看,这2n 种状态正好对应一个n维超立方体的各个顶点。以n3为例,一个立方体的八个顶点正好对应网络的八种状态。如图第31页,共172页,编辑于2022年,星期二第32页,共172页,编辑于2022年,星期二 网络网络的能的能量量函数函数可定义为网络状态的二次函数:上式的能量函数巳不是物理学意义上的能量函数,而是在表达形式上与物理意义上的能量概念一致,表征网络状态的变化趋势,并可依据Hopfield工作运行规则不断进行状态变化,最终能够达到某个极小值的目标函数。所谓网络的收敛,就是指能量函数达到极小值。第33页,共172页,编辑于2022年,星期二 下面证明,
15、按照Hopfield工作运行规则,改变网络状态,能量函数式将单调减小。由上式可知,对应第i个神经元的能量函数:则由时刻t至时刻t+1的能量Ei的变化量Ei 为第34页,共172页,编辑于2022年,星期二 由Hopfield网络工作运行规则可知:当Hi(t)0时,方括号中的值大于或等于零,故 Ei 0 当Hi(t)0时,方括号中的值小于或等于零,故 Ei 0 总之,Ei 0。因为所有神经元都是按同一个工作运行规则进行状态更新的,所以有 E 0,即 E(t+1)E(t)上式说明:随着网络状态的更新,网络能量函数是单调递减的。随着网络状态的更新,网络能量函数是单调递减的。第35页,共172页,编辑
16、于2022年,星期二 图是Hopfield网络能量函数的示意图,为简单起见,假设网络的状态是一维的。横轴为网络状态,纵轴为网络能量函数。第36页,共172页,编辑于2022年,星期二 当网络的状态随时间发生变化时,网络能量沿其减小的方向变化,最后落入能量的极小点。一旦能量落入某个极小点之后,按Hopfield工作运行规则,网络能量函数将会“冻结”在那里。也就是说网络不见得一定收敛到全局的最小点,这是Hopfield网络的一个很大缺陷。但尽管如此,由以上分析可知,Hopfield网络已具有了寻找能量函数极小点的功能,这就为网络的模式记忆打下了基础。第37页,共172页,编辑于2022年,星期二
17、为更深理解Hopfield网络的收敛过程,下面举一个具有四个神经元的Hopfield网络的实例,如图所示。因每个神经元只有“0”、“1”两种状态,故四个神经元共有24=16种状态组合,也就是说,函数共有16种状态,分别用16进制数1F表示。第38页,共172页,编辑于2022年,星期二n分别让网络从0,l,2,F状态开始变化,每次共进行30回学习,观察网络状态变化的次序及网络的收敛情况。n图中,左边:内分别表示网络的初始状态和对应的网络能量,中间部分表示网络状态在30次学习过程中的变化次序,最右侧“*”号表示网络收敛到全局最小点,“.”表示网络落入局部极小点。网络的连接权初始值为一1,+1内的
18、随机值。第39页,共172页,编辑于2022年,星期二第40页,共172页,编辑于2022年,星期二 除去从3和A两个初始状态开始变化外,其它14个初始状态最后都能收敛至全局最小点状态4(能量为-115)。例如初始状态9,其能量为187,随着学习的进行,经9-5-,4最后收敛于状态4;而当从状态A开始变化时,由A-3-3-3,最后收敛于局部极小点状态了,其能量为17。这说明网络的收敛情况依赖于网络的初始状态这说明网络的收敛情况依赖于网络的初始状态。第41页,共172页,编辑于2022年,星期二 另外需要注意的是,这里网络能量的具体数值并不具有一定的物理意义,它只表明网络某一状态在整个网络的所有
19、状态中所处的地位。当网络连接权的初始值改变时,各个状态所对应的能量具体数值也将随之改变。第42页,共172页,编辑于2022年,星期二 在上例中,只改变连接权初始随机值的取值方法(程序语言中,设置了产生不同种类随机数的方法),其它与上例完全一样,则其状态的变化规律如图所示。由图中可知,此时无论网络从哪一个状态出发,最后都将收敛于网络的全局最小点状态e,其能量为一248。这说明整个网络只有一个极小点,即全局最小点。第43页,共172页,编辑于2022年,星期二第44页,共172页,编辑于2022年,星期二 由此可知,对于同样结构的网络,当网络参数有所变化时,如连接权初始值随机数的取值形式或随机数
20、的振幅有所不同时,网络的能量函数也将发生变化,其曲线或曲面(超曲面)对应的极小点的个数和大小也将变化。第45页,共172页,编辑于2022年,星期二联想记忆 记忆(存储)是生物神经系统一个最基本也是最重要的功能。对于人工神经网络,记忆功能的强弱同样是衡量其综合性能的一个重要指标。而联想记忆(associative memory,AM)又是人工神经网络模拟生物神经网络记忆特征的一个主要方法。第46页,共172页,编辑于2022年,星期二“联想”可以理解为从一种事物联系到与其相关事物的过程。在日常生活中,人们从一种事物出发,自然地会联想到与该事物密切相关或者有因果关系的种种事物。联想记忆的基本特征
21、基本特征;这就是由某个模式的部分信息联想起这个模式的全部信息。第47页,共172页,编辑于2022年,星期二联想记忆的两个突出的特点:1.信息(数据)的存取不是像传统计算机通过存储器的地址来实现,而是由信息本身的内容实现,它是“按内容存取记忆”(content adderssbale memory,CAM);2.信息不是集中存储在某些单元中,而是分布存储的。第48页,共172页,编辑于2022年,星期二 联想记忆又分为:自联想记忆(auto-association)互联想记忆(hetero-association)。自联想记忆就是由某种代表事物(或者该事物的主要特征或可能是部分主要特征)联想到
22、其所表示的实际事物;互联想是有某一事物(或该事物的主要特征或者可能是部分主要特征)联想到与其密切相关的另一事物。第49页,共172页,编辑于2022年,星期二 事实上,可以将互联想记忆看作是自联想记忆的一个特例。当把互联想有关的两个事物的信息当作一个统一的事物的信息时,互联想过程就自然过渡到自联想过程。第50页,共172页,编辑于2022年,星期二具体化为以下的两个定义两个定义:(1)自联想记忆。设在学习过程中存入M个样本使用时要求:若输入要求输出为即使它复原即使它复原。第51页,共172页,编辑于2022年,星期二(2)异联想记忆。规定两组样本之间有一定的对应关系 使用时,若输入 (含义同上
23、),要求输出:第52页,共172页,编辑于2022年,星期二第53页,共172页,编辑于2022年,星期二 人脑中对给出一种事物得出其对应事物的途径有两种形成方式。一种是按时间顺序对相关事情进行思考;另一种就是通过事物本质特征的对比来确认事物的属性,从提示信息或局部信息对事物进行回忆或确认。这两种基本方式抽象成计算技术中按地地址址寻寻找找和按内内容容寻找寻找两种搜索方法。第54页,共172页,编辑于2022年,星期二 按内容寻找是基于事物全部或者部分特征来找出目标事物。寻找过程就是事物间特征对比,而不必知道这些事物的具体存储地址。从匹匹配配过过程程来看,这种方法不需要地址的管理及变换,这就有可
24、能提高查寻速度。从观观念念上上来来看,这这种种方方法法接接近近人人的的思思维维的的方方法法,因为在人脑辨识决策过程中,绝大多数是基于事物之间的联系,也就是联想过程。但是,这这种种方方法法在在传传统统计计算算机机上上用用确确定定性性算算法法难难以以实实现现,而人工神经元网络却能提供一种较好的实现方案。第55页,共172页,编辑于2022年,星期二Hopfield网络是如何实现如何实现联想记忆的呢?Hopfield网络是一个非线性动力学系统,网络的“能量函数”存在着一个或多个极小点或称为平衡点、平衡状态。当某一时刻各神经元的状态确定之后,即网络的初始状态确定之后,网络的状态将按动力学方程即Hopf
25、ield工作运行规则向能量递减的方向变化,最后接近或达到网络的平衡状态。第56页,共172页,编辑于2022年,星期二 实际上可观测的平衡状态称为吸引子(Attractor),吸引子可以是稳定的,也可以是不稳定的;可以是平衡点,也可以是极限环极限环或混沌吸引子混沌吸引子(奇异吸引子)。有限环状态:指的是网络状态有规律有规律地在某些状态 之间振荡;混沌状态:指的是网络无规律无规律地在某些状态之间振 荡。不随时间变化的吸引于称为:稳定平衡点(Stable Equilibrium Point)。第57页,共172页,编辑于2022年,星期二 Hopfield网络的这一特性提示我们,如果设法把所需记忆
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经网络 第四章幻灯片 第四 幻灯片
限制150内