神经网络用于模式识别的几种主要方法及比较.pdf
《神经网络用于模式识别的几种主要方法及比较.pdf》由会员分享,可在线阅读,更多相关《神经网络用于模式识别的几种主要方法及比较.pdf(4页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、神经网络用于模式识别的几种主要方法及比较Several Main Methords and Their Comparison of Neural Network in Pattern2recognition许延伟3 刘希玉XU Yan2weiLIU Xi2yu摘 要 神经网络的一个主要应用就是模式识别,本文主要讨论了用于模式识别的几种有代表性的神经网络类型及其学习或设计规则,对其优缺点进行了简要分析。关键词 神经网络 模式识别 人工神经网络AbstractOne of the main methods in pattern-recognition is neural networks.This
2、 paper discussed several kindsof typical neural networks used in the pattern-recognition and their learning algorithms,and have carried on brief anal2ysis to its advantages and disadvantages.KeywordsNeural networkPattern2recognition3 山东师范大学信息管理学院 山东 济南 2500141 引言人工神经网络,是一种基于生理学上的神经网络理论抽象化的系统模型。它是由大量
3、的基本单元 神经元通过极其丰富的相互联结而构成的非线性动力学系统。目前主要应用于模式识别、组合优化、过程控制等方面。模式识别就是通过计算机用数学技术方法来研究模式的自动处理和判读。我们把环境与客体统称为“模式”。2 模式识别模式可以理解为一组特征,在计算机中就是一组向量或数组。Pi(i=1,p)是一组模式的集合,模式识别的任务就是把它们分到一组类别的集合中:Tj(j=1,t)。其中每一个Pi都是特征值向量。我们可以把其写成一个二元组的形式:Pi,ti(i=1,p),如果ti=Tj,则表示Pi属于类别Tj。例如,一个分类器需要识别传送带上的水果是苹果还是桔子,利用三个传感器获取水果的三个特征:P
4、=外形 质地重量。一个标准桔子可表示为P1=1-1-1,一个标准苹果可表示为P2=1 1-1,如果用1表示桔子,-1表示苹果的话,则t1=1,t2=-1。3 人工神经网络人工神经网络技术的出现为处理各种模糊的、数据(或知识)不完全的、模拟的、不精确的模式识别问题提供了一个全新的途径。人工神经网络,尤其是前馈型神经网络,在信息处理中最典型,最有希望的应用领域就是模式识别。作为神经网络的最初模型 感知机模型,就是为模式识别提出来的。神经网络通过自组织或学习训练而具有强有力的模式识别能力,这使得基于神经网络的模式识别系统与传统的模式识别系统相比,表现出明显的优点。图1图1是单个神经元的示意图,神经元
5、的输出按下式计算:a=f(WP+b)。多个神经元按层组成网络的形式,如图2 网络的输出可以表示为:a3=f3(W3f2(W2f1(W1P+b1)+b2)+b3)。下面主要详细讨论三种主要的神经网络:前馈网络(以感知机为代表)、竞争网络(以Hamming网络为代表)以及递归联想存储网络(以Hopfield网络为代表)。4 前馈网络与有监督的学习前馈网络主要用于有监督的学习,以感知机为代表。在有监督学习中学习规则由一组描述网络行为的实例集合(训练集)给出:Pi,ti(i=1,p)。其中Pi为网络的输入,ti为相应的正确输出。当提供给网络输入后,网络应根据目标输出调整权值和偏置值,从而使网络的实际输
6、出逐渐接近目标输出。4.1 单层感知机及其学习规则单层感知机是20世纪50年代末,由Frank Rosenblatt和其他几位研究人员提出来的。Rosenblatt的主要贡献在于引入了用于训练神经网络解决模式识别问题的学习规则,并证明了其收敛性问题。研究与探讨信息技术与信息化1202005年第4期图2单层感知机网络的一般结构如图3所示:该网络的输出由下式给出:a=hardlim(WP+b)。其中传输函数hardlim的定义为:a=hardlim(n)=1,如果n00,其他。如果是一个神经元,则把输入向量分为两类,多神经元感知机则可以将输入分为多类。图3单层感知机的学习规则为:Wnew=Wold
7、+ePT和bnew=bold+e(其中e为误差:e=t-a)。文献2证明只要问题的解存在,那么感知机学习规则就一定能够在有限步数内收敛到问题的一个解。单层感知机学习收敛速度快但只能解决线性可分问题(文献1),这种情况导致了20世纪70年代人们对神经网络研究兴趣的减退。4.2Hebb学习规则与线性联想器Donald O.Hebb1949年在其 The Organization of Behavior 一书中提出了著名后来被证明的Hebb假设:“当细胞A的轴突到细胞B的距离近到足够激励它,且反复地或持续地刺激B,那么在这两个细胞或一个细胞中将会发生某种增长过程或代谢反应,增加A对细胞B的刺激效果。
8、”Hebb学习规则能用于训练多种结构的神经网络,我们首先讨论一种称为线性联想器的网络,它的网络结果类似于单层感知机,只是没有偏置值b和选用线性传输函数。它的训练规则是Wnew=Wold+tqPTq。当把初始的权值矩阵设为零时,那么有W=Qq=1tqPTq,如果输入向量为标准正交的话,则网络输出等于目标输出。当输入模式非正交时,Hebb规则会产生误差,有多种办法可以减小这种误差,比如仿逆规则(见文献5)。自联想存储器可以在输入模式有所“破损”时,仍然能将其复原,即有一定的鲁棒性。4.3ADALINE网络和LMS算法1960年,Widrow和他的学生一块提出了ADALINE网络和一个称为LMS(L
9、east Mean Square)(也称为学习规则)的学习算法,归为性能学习。它类似于一个单层的感知机,不过是线性传输函数。LMS算法是后来著名的BP算法的基础。它的训练法则是:W(k+1)=W(k)+2e(k)pT(k)和b(k+1)=b(k)+2e(k),其中W(k)代表第k次迭代时的权值,e(k)代表误差,即实际输出与目标输出之差,网络通过学习使性能指标F(X)=Ee2=E(t-a)2最小化。其中是学习速度。的取值要求及算法的收敛性证明见文献1。ADALINE网络和感知机最大的差别在于网络最后形成的边界总是尽量远离原型模式,因此对“破损”的输入有更好的适应性。它的应用领域比感知机广得多,
10、一个主要领域就是自适应滤波,可以说它是实际应用中使用最广的神经网络之一。4.4 多层感知机和BP算法单层感知机以及ADALINE网络都有一个局限性就是只能处理线性可分问题。这导致了20世纪70年代神经网络研究的低潮。20世纪80年代中期,David Rumelhart,Geoffrey Hin2ton和Ronald Williams等人发明了用来训练多层网络的有效算法:BP(反向传播)算法,重新引发了神经网络研究的高潮。用BP算法训练的多层感知机是当前应用最广的神经网络(图2)。BP算法采用和LMS算法同样的性能指标(如前述),通过网络的学习使其最小化。输入模式在反传训练期间顺序地得到提供,根
11、据网络的实际输出和目标输出的吻合度调整网络的权重和阈值,以便使当前的最小均方误差得到减小。给M层网络提供一个输入模式后,网络首先顺序计算输出am+1=fm+1(Wm+1am+bm+1),m=0,1,M-1;然后从后向前依次调整网络每一层的权值:Wm(k+1)=Wm(k)-Sm(m-1)T和bm(k)-Sm。其中Sm被称为敏感性,SM=-信息技术与信息化研究与探讨2005年第4期1212?FM(nM)(t-a),Sm=?Fm(nm)(Wm+1)TSm+1,m=M-1,2,1,其中?Fm(nm)=fm(nm1)000?fm(nm2)000?fm(nmsm),?fm(nmj)=5fm(nmj)5nj
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经网络 用于 模式识别 主要 方法 比较
限制150内