hejianhua-神经网络讲义-part6-自组织网络.ppt
《hejianhua-神经网络讲义-part6-自组织网络.ppt》由会员分享,可在线阅读,更多相关《hejianhua-神经网络讲义-part6-自组织网络.ppt(41页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、人工神经网络及其应用第6讲 自组织网络何建华电信系,华中科技大学2003年3月7日在实际的神经网络中,比如人的视网膜中,存在着一种“侧抑制”现象,即一个神经细胞兴奋后,通过它的分支会对周围其他神经细胞产生抑制。自组织竞争人工神经网络正是基于上述生物结构和现象形成的。它能够对输入模式进行自组织训练和判断,并将其最终分为不同的类型。与BP 网络相比,这种自组织自适应的学习能力进一步拓宽了人工神经网络在模式识别、分类方面的应用,另一方面,竞争学习网络的核心竞争层,又是许多种其他神经网络模型的重要组成部分。81几种联想学习规则 格劳斯贝格(S Grossberg)提出了两种类型的神经元模型:内星与外星
2、,用以来解释人类及动物的学习现象。内星可以被训练来识别矢量;外星可以被训练来产生矢量。图8.1 格劳斯贝格内星模型图 内星是通过联接权矢量W 接受一组输入信号P 图82 格劳斯贝格外星模型图 外星则是通过联接权矢量向外输出一组信号A。它们之所以被称为内星和外星,主要是因为其网络的结构像星形,且内星的信号流向星的内部;而外星的信号流向星的外部。811内星学习规则实现内星输入输出转换的激活函数是硬限制函数。可以通过内星及其学习规则来训练某一神经元节点只响应特定的输入矢量P,它是借助于调节网络权矢量W 近似于输入矢量P 来实现的。单内星中对权值修正的格劳斯贝格内星学习规则为:(8 1)由(8 1)式
3、可见,内星神经元联接强度的变化w1j是与输出成正比的。如果内星输出a 被某一外部方式而维护高值时,那么通过不断反复地学习,权值将能够逐渐趋近于输入矢量pj的值,并趋使w1j逐渐减少,直至最终达到w1jpj,从而使内星权矢量学习了输入矢量P,达到了用内星来识别一个矢量的目的。另一方面,如果内星输出保持为低值时,网络权矢量被学习的可能性较小,甚至不能被学习。现在来考虑当不同的输入矢量p1和p2分别出现在同一内星时的情况。首先,为了训练的需要,必须将每一输入矢量都进行单位归一化处理。当第一个矢量p1输入给内星后,网络经过训练,最终达到W(p1)T。此后,给内星输入另一个输入矢量p2,此时内星的加权输
4、入和为新矢量p2与已学习过矢量p1的点积,即:因为输入矢量的模已被单位化为1,所以内星的加权输入和等于输入矢量p1和p2之间夹角的余弦。根据不同的情况,内星的加权输入和可分为如下几种情况:1)p2等于p1,即有120,此时,内星加权输入和为1;2)p2不等于p1,内星加权输入和为0;3)当p2-p1,即12180 时,内星加权输入和达到最小值-1。由此可见,对于一个已训练过的内星网络,当输入端再次出现该学习过的输入矢量时,内星产生1的加权输入和;而与学习过的矢量不相同的输入出现时,所产生的加权输入和总是小于1。当多个相似输入矢量输入内星,最终的训练结果是使网络的权矢量趋向于相似输入矢量的平均值
5、。内星网络中的相似度是由偏差b来控制,由设计者在训练前选定,典型的相似度值为b-0.95,这意味着输入矢量与权矢量之间的夹角小于1848。若选b-0.9 时,则其夹角扩大为2548。一层具有s 个神经元的内星,可以用相似的方式进行训练,权值修正公式为:MATLAB 神经网络工具箱中内星学习规则的执行是用函数learnis.m 来完成上述权矢量的修正过程:dW 1earnis(W,P,A,lr);W=W 十dW;例8.1 设计内星网络进行以下矢量的分类辨识:我们首先对网络进行初始化处理:R,Q size(P);S,Q size(T);W zeros(S,R);B-0.95*ones(S,1);m
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- hejianhua 神经网络 讲义 part6 组织网络
限制150内