自组织竞争神经网络.ppt
《自组织竞争神经网络.ppt》由会员分享,可在线阅读,更多相关《自组织竞争神经网络.ppt(42页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第五章第五章 自组织竞争神经网络自组织竞争神经网络 第五章第五章 自组织竞争神经网络自组织竞争神经网络 5.1 概述概述 5.2 自组织特征映射网络自组织特征映射网络 5.3 自适应共振理论模型自适应共振理论模型 5.4 神经认知机神经认知机 5.1 概述概述 在实际的神经网络中,存在一种侧抑制的现象,即一个神经细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制这种侧抑制在脊髓和海马中存在,在人眼的视网膜中也存在。另外,在认知过程中除了从教师那儿得到知识外,还有一种不需要教师指导的学习,这种直接依靠外界刺激,“无师自通”达到的功能有时也称为自学习、自组织的学习方法。自组织竞争人工神经网络就是
2、基于上述两种生物结构和现象的基础上生成的,它的权是经过Hebb规则或类似Hebb规则学习后得到的。5.2 自组织特征映射网络自组织特征映射网络 5.2.1 网络拓扑结构及工作过程网络拓扑结构及工作过程 5.2.2 自组织映射学习算法自组织映射学习算法 5.2.3 自组织映射网络的工作原理自组织映射网络的工作原理 5.2.4 网络的应用实例网络的应用实例 芬兰学者Kohonen认为一个神经网络接受外界输入模式时,将会分成不同的区域,各区域对输入模式将会有不同的响应特性,最临近的神经元互相激励,而较远的神经元之间相互抑制,而更远的神经元之间又有较弱的激励作用。在受到外界刺激时,刺激最强的地方形成一
3、个Bubble(墨西哥帽),在此Bubble区中,神经元权向量会自动调节,直到与输入向量的某一最大分量方向相重合为止。图图5.1 神经元的作用分布曲线神经元的作用分布曲线 图图 5.2 网络结构网络结构 5.2.1 网络拓扑结构及工作过程网络拓扑结构及工作过程 图图5.3 Nj(t)的形状变化情况的形状变化情况 对于任意一个输入节点i和输出节点j有:i1,2,.,n,j1,2,.,n 且:5.2.2 自组织映射学习算法自组织映射学习算法 连接权值的初始化。t=0:0Wij1,i1,2,n,j1,2,m 对网络输入一个样本模式。XK=(X1,X2,Xn)计算与全部输出节点间的权值向量的距离 j1
4、,2,m(5.2.2)选择有最小距离的节点为竞争获胜节点 j1,2,m 调整权值 (5.2.3)其中,0(t)1,衰减函数,随着时间t而递减;(Nj,Nj*)限界函数,随着Nj*距离递减。若还有输入样本则转,当所有的样本输入完,且满足:i1,2,.,n,j1,2,m(5.2.4)或者完成指定的学习次数后算法结束,否则转。(t)和Nj*有一般化数学方法,凭经验选取。初始时,Nj*选取较大,后逐渐变小,(t)开始时较大,后逐渐变为0。从自组织映射网络算法来看,该网络有以下特点:从自组织映射网络算法来看,该网络有以下特点:(1)网络中的权值是输入样本的记忆。如果输出节点j与输入层n个节点的连接权值向
5、量用Wj表示,对应某一类样本XK输入,使j节点达到的匹配最大,那么Wj通过学习以后十分靠近XK,因此以后当XK再次输入时,j节点必定兴奋,j节点是样本的XK代表。(2)网络学习时对权值的调整,不只是对兴奋的节点所对应的权值进行调整,而对其周围区域Nj内的节点同时进行调整,因此对于在Nj内的节点可以代表不只是一个样本XK,而是与XK比较相近的样本都可以在Nj内得到反映,因此这种网络对于样本的畸变和噪声的容限大。(3)网络学习结果使比较相近的输入样本在输出二维平面上位置也比较接近。(4)可实现在线学习,已修改的权值将保留。5.3 自适应共振理论模型自适应共振理论模型 5.3.1 自适应共振理论自适
6、应共振理论(ART)5.3.2 ART1神经网络神经网络 5.3.3 ART1网络学习算法的改进网络学习算法的改进 5.3.4 ART2神经网络神经网络 5.3.5 ART神经网络在人像识别中的应用神经网络在人像识别中的应用 5.3.1 自适应共振理论自适应共振理论(ART)自适应共振理论(Adaptive Resonance Theory,简称)是由美国Boston大学S.Grossberg和A.Carpenter提出的。这一理论包括ART1和ART2两种模型,可以对任意多和任意复杂的二维模式进行自组织、自稳定和大规模并行处理。前者用于二进制输入,后者用于连续信号输入。如图5.8所示,它由两
7、个相继连接的存储单元STM-F1和STM-F2组成,分成注意子系统和取向子系统。F1 和F2之间的连接通路为自适应长期记忆(LTM)。图图5.8 ART原理图原理图 ART的主要优点:的主要优点:1、可完成实时学习,且可适应非平稳的环境;2、对已学习过的对象具有稳定的快速识别能力,同时又能迅速适应学习的新对象;3、具有自归一能力,根据某些特征在全体中所占的比例,有时作为关键特征,有时又被当作噪声处理;4、不需要事先已知样本结果,可非监督学习;5、容量不受输入通道数的限制,存储对象也不要求是正交的;6、此系统可以完全避免陷入局部极小点的问题。5.3.2 ART1神经网络神经网络 一、一、ART1
8、神经网络基本结构神经网络基本结构 图图5.9 ART1 网络的基本结构网络的基本结构 网络的基本结构由两层神经网节点构成两个子系统,分别称比较层(Compare,简称C层)和识别(Recognition,简称R层)。另外还有三种控制信号,即复位信号(简称Reset)及两种逻辑控制信号G1和G2。1.C 层结构层结构:具有n个节点,每个节点接受来自三个方面的信号。信号1:输入X的第i个分量Xi。信号2:R层第j个单元的自上而下返回信号Rj。信号3:G1控制信号。设C层第i个单元输出为Ci。Ci根据“2/3规则”产生,即Ci具有三个信号中的多数相同的值。网络开始运行时,G1=1,R层反馈信号为0。
9、2.R 层结构层结构:R层功能结构相当于一种前向竞争网络,假设输出层有m个节点,m类输入模式。输出层节点能动态增长,以满足设立新模式类的需要。设由C层自下而上连接到R层第j个的节点的权向量用Wj=w1j,w2j,.,wnj 表示。C层输出向量C沿Wj向前馈送,经过竞争在R层输出端产生获胜节点,指示本次输入向量类别。3.控制信号控制信号 (1)G1:设输入模式X各元素的逻辑“或”为X0,R各元素的逻辑“或非”为R0,则G1=X0R0,即只有在R层输出向量R为全0,而输入X不为全0时,G1=1,其他情况下G1=0。(2)G2是输入模式X各元素的逻辑“或”,即X为全0时,G2是0。其他情况下G2是1
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 组织 竞争 神经网络
限制150内