BP神经网络RBF神经网络自组织竞争型神经网络jjz.pptx
《BP神经网络RBF神经网络自组织竞争型神经网络jjz.pptx》由会员分享,可在线阅读,更多相关《BP神经网络RBF神经网络自组织竞争型神经网络jjz.pptx(54页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第五章 自组织竞争型神经网络5.1概述概述5.25.2竞争学习机制和自稳学习机制竞争学习机制和自稳学习机制5.35.3自适应共振理论神经网络(自适应共振理论神经网络(ARTART)BP网络虽已得到广泛应用,然而,它在构成网络时未能充分借鉴人脑工作的特点,因而其功能有许多不足之处:对比之下,人脑的优越性就极其明显了。人的大脑是一个庞大、复杂的神经网络系统,它不仅可以记忆来自外界的各种信息,即具有可塑性,而且还可以将新、旧信息保存下来,即具有稳定性。人的脑神经系统既能牢固地记住学得的各种知识又能适应各种复杂多变的环境,能够通过“自学”来认识未学习过的新事物并解决不熟悉的新问题。因此,我们在研究、设
2、计和开发人工神经网络时,应该充分借鉴人脑的学习方法:(1)BP神经网络只适用于平稳的环境,这就是说,输入模式的各项统计特征不能随时间而变化(各种客体、客体间的关系以及相应的观察矢量具有统计平衡性)。但是,真实的世界不是或不完全是这样。(2)BP网络的学习是在教师指导下的有监督学习,它不能自学;另一方面,网络的学习状态与工作状态是截然分开的,它不能边学习边工作。(3)学习过程中神经网络的所有权值系数都要调整,而且为了防止振荡现象出现,学习的步幅必须取为较小的数值,这就使学习速度非常缓慢。(4)在完成分类功能时如果被区分的客体类别数超出了神经网络可区分的最大极限,而学习方式仍按照原来方式进行,那么
3、根本不可能给出正确的学习结果。(5)有可能陷入均方误差的局部最小点,从而造成错误的分类结果。(6)误差准则是固定的,不能随着环境的变化而进行相应的调整或改变。(1)自主的(自治的);(2)自组织;(3)自学习;(4)联想(双向)。这正是自适应谐振理论(ART)的研究出发点。竞争学习的原理可借助于图5.1给出的示意图加以描述。第一步,我们暂且不考虑图中虚线表示的自稳机制部分。假设输入观察矢量是一个N维二进矢量X,X=x0 x1xN-1,它的各个分量只能取0或1,即xj=0或1,j=0(N-1)。系统的输出是一个M维二进矢量Y,Y=y0y1yM-1,它的各个分量也只能取值为0或1。此系统分成三层,
4、F2和F1分别称为上、下短期记忆层,并记之为STM(STM是“short time memory”的缩写,F2和F1之间是一个长期记忆层,记之为LTM(“long time memory”的缩写)。各层的运算功能分别介绍如下:F1层(层(STM)此层的输入是观察矢量X,输出是N维矢量S,S=s0s1sN-1。在最简单的情况下,S的各个分量Sj可以用下列公式计算:j=0(N-1)(5-1)易于证明,矢量S的模为1,。这就是说,F1层的作用是使任何输入观察矢量规格化,即使之成为具有同样模值的矢量。F1和和F2之间的中层(之间的中层(LTM)在此层由矢量S计算出一个M维矢量,T=t0t1tM-1。T
5、的各分量按下式计算:(5-2)由于其中的各权值系数wij的变化相对于F1、F2而言缓慢得多(下面将指出,每输入一次观察矢量,它们只作微小的变化),所以它们保留的是系统的长期记忆内容。F2层(层(STM)此层的作用是由矢量T计算输出矢量Y,其计算公式为 若 (5-3)可以看出,在输出层F2进行的是一种竞争抉择运算:在t0tM-1之间,有一个最大的分量,其对应输出即定为1,而所有其它分量所对应的输出皆定为0。下面讨论此系统用于分类时的学习策略 在学习开始以前,首先需要对LTM层中的各个权值系数置以随机初值wij(0),然后依次送入观察矢量X(k),随时按照下列公式将各个权重系数调整成一组新的数值:
6、j=0(N-1),i=0(M-1)(5-4)其中是步幅值,取一个小正数值。可以看到,由于在y0(k)yM-1(k)之中只有一项等于1而其它各项皆为0,因而只有与该非零项相应的权值系数才做调整,也就是说,只改变与竞争得胜者有关的各个权重系数,而其它所有权重值系数皆维持不变。对于竞争得胜者,与其有关的各权重系对于竞争得胜者,与其有关的各权重系数的调整策略是使各数的调整策略是使各wij(此处设得胜者的编号为(此处设得胜者的编号为i=I)与规格化输入矢量)与规格化输入矢量S(k)的各分量)的各分量Sj(k)趋于一致。趋于一致。如果设Wj=wI0 wI1 wIN-1,那么这种调整就是使WI趋向于S(k)
7、。由于 ,所以调整的结果也是使 趋向于1。由于这种算法中只有竞争得胜者的有关系数才有机会进行学习,所以称之竞争学习算法。若通过学习,不同客体的观察矢量集合都找到了各自相应的得胜输出分量,因而根据得胜者的编 号 就 能 自 然 地 对 它 们 进 行 分 类(classification)。这种通过竞争学习完成分类功能的过程也可以用其它术语称之为聚类(cluster)、分 割(partition)、编 码(coding)、正交化(orthogonalization)或自适应矢量量化(adaptive VQ),在思维心理学 中 常 称 之 为 分 类 感 知(categorical percept
8、ion)。可以看到,如果输入观察矢量所表示的客体类别数小于输出矢量Y的维数M,而且每个类别的观察矢量所占据的空间足够“紧凑”(这就是说,同一类别矢量所占空间内的观察矢量十分接近,而不同类别矢量所占空间的观察矢量相距较远),那么学习可以趋于稳定并收到很好的分类效果。但是,也可以举出一些反例,如果在相隔较远的两个时间点上两次输入同一观察矢量,而在其间插入若干其它观察矢量,那么第二次分类的结果会出现与第一次分类结果不一致的现象。这说明第一次分类后新学习得到的记忆内容有可能冲掉原有的学习记忆内容,从而导致了第二次分类的错误。这也说明简单的竞争学习机制不能保证记忆具有足够的牢固性。为了解决这个矛盾,可以
9、在竞争学习算法中再加上一个由顶向下的自稳机制,如图5-1中的虚线所示。其工作原理介绍如下:(1)竞争选择的原理不改变,即每输入一观察矢量X(k),输出矢量的各个分量是Y0(k),Y1(k),YM-1(k),其中只有一项为1,其它各项均为零。设竞争胜利者(即非零项)为YI(k)。(2)对学习算法进行下述修正。首先,由输出矢量Y(k)产生一个由顶向下矢量Z(k),Z(k)=z0(k)z1(k)zN-1(k),其中各分量zi(k)按下列公式计算:j=0(N-1)(5-5)其中 是由顶向下的权重系数,由于诸yi(k)中只有yI(k)为1,其它均为0,所以式(5-5)可以表示为 j=0(N-1)(5-6
10、)此式中的各个由顶向下的权重系数 是在时序k以前的各次学习中“记忆”下来的。后面将指出,记忆的算法是使得当某个yI为获胜输出端时,各个 与当时的规格化输入矢量S的各分量Sj趋于一致。设由顶向下的第I号权重矢量为 ,,由式(5-6)可知,Z(k)=。为了判断本次(即第k次)输入的规格化矢量S(k)与以前I输出端获胜时的规格化矢量S是否相似,我们只要比较S(k)与Z(k)之间的相似度。两个空间矢量的相似度可以用它们之间的夹角大小来衡量,而此夹角又与S(k)和Z(k)的规格化点积有单调依存关系。的计算公式是 (5-7)越接近于1则两个矢量的相似度越高。需要说明,当两个矢量的模对于衡量它们的相似度无关
11、紧要时,利用是适宜的。如果模本身对于衡量相似度也是重要的,则应采用两个矢量的欧氏距离|S(k)-Z(k)|来衡量其相似度。但是,当这两个矢量的模都已规格化为1时,用欧氏距离或规格化点积来衡量相似度是等价的。根据S(k)和Z(k)的相似度衡量值的不同,神经网络可以采取不同的运行策略,下面分步骤给出这些策略。(a)如果两个矢量的相似度很高,即值很接近于1,那么神经网络立即转入后面第(3)项规定的运算。(b)如果两个矢量相似度不够高,从而使低于某个阈值,这时就立即摒弃第一次选择的优胜输出yI,再由所余的各个yi中选出一个优胜者。这就要回到前面第(1)项重新开始竞争选择。需要强调,在新一轮的竞争中前优
12、胜者I已被排除在外。假设在过去的学习中F2 层的M个输出端中只有K个被占用且KM,那么搜索优胜者的竞争显然只能在这K个被占用输出端之间进行。一旦在这K个输出端中找到一个胜利者,它的由顶向下矢量Z(k)与S(k)足够相似,则立即转入(3)。否则,就一个一个找下去。如果K个端都搜遍了,仍找不到足够相似者,则新开辟一个输出端作为新的一类。类别数从K增至(K+1),然后转入第(3)项。(c)如果开辟一个新端后仍保持(K+1)M,则允许在下一次学习时继续开辟新类别。如果(K+1)=M,这表明所有网络的容量都已占满,这时不再允许开辟新类别,以免破坏网络中已存储的记忆内容。(3)如果在已被占用的输出端中找到
13、一个优胜者,它的由顶向下矢量Z(k)与S(k)的相似度足够高,或者开辟了一个未被占用的新输出端,则对于该端相应的由底向上和由顶向下权重系数进行调整。设此端的编号为L,那么被调整的系数是 和 。下面给出系数调整的计算公式:(5-8)其中是步幅,其值取为一个小正实数。可以看到,按照上面给出的算法,只有当新的输入矢量与已存入记忆中的某个矢量足够相似时,两者才能互相融合,即对有关的权重系数进行调整,从而使长期记忆得以改变。这造成一种自适应谐振(adaptive resonance)状态,这就是ART这个名称的来源。需要指出,上面给出的(1)和(2)两项运算,其运算速度相对而言是快的,在运算时只有F1和
14、F2这两个STM层的输出发生变化,而LTM层中的系数不产生改变。当进入自适应谐振状态时(即进入第(3)项运算时)LTM层中的有关系数才发生变化。这类似于人的记忆过程,当输入一个观察矢量时,大脑必须在已有的记忆内容中搜索与之相似的矢量,如果得到了印证,那么对其记忆就会加强。另一方面,如果输入的是一个完全新奇的矢量,这也会造成深刻的印象并被植入长期记忆库之中。概括而言,按照ART(也就是以竞争学习和自稳机制为原则所建立的理论)构成的ANN有如下特点:(1)它能对任何输入观察矢量(包括非平衡输入)进行“实时学习”,这就是说,学习和工作是分不开的。这种学习保证能够达到稳定、可靠的结果,直至记忆容量全部
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- BP 神经网络 RBF 组织 竞争 jjz
限制150内