前馈神经网络优秀PPT.ppt
《前馈神经网络优秀PPT.ppt》由会员分享,可在线阅读,更多相关《前馈神经网络优秀PPT.ppt(94页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、前馈神经网络前馈神经网络1第1页,本讲稿共94页前馈神经网络是神经网络中的一种典型的分层前馈神经网络是神经网络中的一种典型的分层结构,信息从输入层进入网络后逐层向前传递结构,信息从输入层进入网络后逐层向前传递至输出层。根据前馈网络中神经元转移函数、至输出层。根据前馈网络中神经元转移函数、隐层数以及权值调整规则的不同,可以形成具隐层数以及权值调整规则的不同,可以形成具有各种功能特点的神经网络。有各种功能特点的神经网络。2第2页,本讲稿共94页3.1 感知器感知器3.2 自适应线性单元自适应线性单元3.3 BP网络网络3.4 BP网络变通结构网络变通结构3.5BP网络学习算法的改进网络学习算法的改
2、进3.6BP网络设计基础网络设计基础3.7 BP网络应用与设计实例网络应用与设计实例3.8 小结小结3第3页,本讲稿共94页n19581958年,美国心理学家年,美国心理学家Frank RosenblattFrank Rosenblatt提出一种具提出一种具有单层计算单元的神经网络,即感知器。感知器是模有单层计算单元的神经网络,即感知器。感知器是模拟人的视觉接受环境信息,并由神经冲动进行信息传拟人的视觉接受环境信息,并由神经冲动进行信息传递。感知器研究中首次提出了自组织、自学习的思想,递。感知器研究中首次提出了自组织、自学习的思想,而且对说解决的问题存在着收敛算法,并能从数学上而且对说解决的问
3、题存在着收敛算法,并能从数学上严格证明,因而对神经网络的研究起了非常重要的推严格证明,因而对神经网络的研究起了非常重要的推动作用。动作用。单层感知器的结构和功能都很简单,以至于在解决实单层感知器的结构和功能都很简单,以至于在解决实际问题是很少采用,但由于它在神经网络研究中具有际问题是很少采用,但由于它在神经网络研究中具有重要意义,是研究其他网络的基础,而且较易学习和重要意义,是研究其他网络的基础,而且较易学习和理解,适合于作为神经网络的起点。理解,适合于作为神经网络的起点。3.1 感知器感知器4第4页,本讲稿共94页3.1.1 感知器模型感知器模型j=1,2,m 5第5页,本讲稿共94页净输入
4、:净输入:输出:输出:3.1.1感知器模型感知器模型6第6页,本讲稿共94页(1)(1)设输入向量设输入向量X=(x1,x2)T输出:输出:则由方程则由方程 wijx1+w2jx2-Tj=0 确定了二维平面上的一条分界线。确定了二维平面上的一条分界线。ojx1-1x23.1.2感知器的功能感知器的功能7第7页,本讲稿共94页感知器的功能(二维)感知器的功能(二维)8第8页,本讲稿共94页wij x1+w2j x2 Tj=0wij x1=Tj -w2j x2x1=(Tj-w2j x2)/wij =-(w2j/wij)x2+Tj/wij =a x2+c 9第9页,本讲稿共94页设输入向量设输入向量
5、X=(x1,x2,x3)T输出:输出:则由方程则由方程 wijx1+w2jx2+w3j Tj=0 确定了三维空间上的一个分界平面。确定了三维空间上的一个分界平面。x2ojx1x3-110第10页,本讲稿共94页wij x1+w2j x2+w3j x3 Tj=0 x1=a x2+b x3+c 是什么?是什么?11第11页,本讲稿共94页设输入向量设输入向量X=(x1,x2,xn)T则由方程则由方程 wijx1+w2jx2+wnj Tj=0确定了确定了n n维空间上的一个分界平面。维空间上的一个分界平面。输出:输出:wijx1+w2jx2+wnj Tj=012第12页,本讲稿共94页 一个最简单的
6、单计算节点感知器具有分类功能。其一个最简单的单计算节点感知器具有分类功能。其分类原理是将分类知识存储于感知器的权向量(包含了阈分类原理是将分类知识存储于感知器的权向量(包含了阈值)中,由权向量确定的分类判决界面将输入模式分为两值)中,由权向量确定的分类判决界面将输入模式分为两类。类。3.1.2感知器的功能感知器的功能13第13页,本讲稿共94页例例 用感知器实现逻辑用感知器实现逻辑“与与”功能功能x1x2y000010100111逻辑逻辑“与与”真值真值表表14第14页,本讲稿共94页例一例一 用感知器实现逻辑用感知器实现逻辑“与与”功能功能感知器结构感知器结构w1x1+w2x2-T=0 0.
7、5x1+0.5x2-0.75=015第15页,本讲稿共94页例例 用感知器实现逻辑用感知器实现逻辑“或或”功能功能x1x2y000011101111逻辑逻辑“或或”真值表真值表16第16页,本讲稿共94页用感知器实现逻辑用感知器实现逻辑“或或”功能功能感知器结构感知器结构 w1x1+w2x2-T=0 x1+x2-0.5=017第17页,本讲稿共94页问题:能否用感知器实现问题:能否用感知器实现“异或异或”功能?功能?“异或异或”的真值表的真值表x1x2y00001110111018第18页,本讲稿共94页n关键问题就是求关键问题就是求19第19页,本讲稿共94页3.1.3感知器的学习感知器的学
8、习nPerceptron(感知器感知器)学习规则学习规则式中,当实际输出与期望值相同时,权值不需要调整。感知器式中,当实际输出与期望值相同时,权值不需要调整。感知器学习规则代表一种有导师学习。学习规则代表一种有导师学习。20第20页,本讲稿共94页感知器学习规则的训练步骤:感知器学习规则的训练步骤:(1)(1)对各权值对各权值w0j(0),w1j(0),wnj(0),j=1,2,m (m为计算层的节点数)赋予较小的非零随机数;为计算层的节点数)赋予较小的非零随机数;(2)(2)输入样本对输入样本对Xp,dp,其中其中Xp=(-1,x1p,x2p,x xn np p),dp为期望的输出向量(教师
9、信号),上标为期望的输出向量(教师信号),上标p代表代表 样本对的模式序号,设样本集中的样本总数为样本对的模式序号,设样本集中的样本总数为P,则则p=1,2,P P;3.1.3感知器的学习感知器的学习21第21页,本讲稿共94页(3)计算各节点的实际输出计算各节点的实际输出ojp(t)=sgnWjT(t)Xp,j=1,2,.,m;(4)调整各节点对应的权值,调整各节点对应的权值,Wj(t+1)=Wj(t)+djp-ojp(t)Xp,j=1,2,m,其中为学习率,用于控制调整速度,太大其中为学习率,用于控制调整速度,太大 会影响训练的稳定性,太小则使训练的收敛速度变慢,会影响训练的稳定性,太小则
10、使训练的收敛速度变慢,一般取一般取01;(5)返回到步骤返回到步骤(2)输入下一对样本,周而复始直到对所有输入下一对样本,周而复始直到对所有 样本,感知器的实际输出与期望输出相等。样本,感知器的实际输出与期望输出相等。3.1.3感知器的学习感知器的学习22第22页,本讲稿共94页感知器学习规则的训练步骤:感知器学习规则的训练步骤:(1 1)权值初始化)权值初始化(2 2)输入样本对)输入样本对(3 3)计算输出)计算输出(4 4)根据感知器学习规则调整权值)根据感知器学习规则调整权值(5 5)返回到步骤)返回到步骤(2)(2)输入下一对样本,周而复输入下一对样本,周而复始直到对所有样本,感知器
11、的实际输出与期始直到对所有样本,感知器的实际输出与期望输出相等。望输出相等。23第23页,本讲稿共94页例例 单计算节点感知器,单计算节点感知器,3 3个输入。给定个输入。给定3 3对训练样本对对训练样本对如下:如下:X1=(-1,1,-2,0)T d1=1X2=(-1,0,1.5,-0.5)T d2=1X3=(-1,-1,1,0.5)T d3=1 设初始权向量设初始权向量W(0)=(0.5,1,-1,0)T,=0.1。注意,输入向量注意,输入向量中第一个分量中第一个分量x0恒等于恒等于-1,权向量中第一个分量为阈值,试根据,权向量中第一个分量为阈值,试根据以上学习规则训练该感知器。以上学习规
12、则训练该感知器。3.1.3感知器的学习感知器的学习24第24页,本讲稿共94页解:第一步解:第一步 输入输入X1,得得 WT(0)X1=(0.5,1,-1,0)(-1,1,-2,0)T=2.5 o1(0)=sgn(2.5)=1 W(1)=W(0)+d1-o1(0)X1 =(0.5,1,-1,0)T+0.1(-1-1)(-1,1,-2,0)T =(0.7,0.8,-0.6,0)T3.1.3感知器的学习感知器的学习25第25页,本讲稿共94页第二步第二步 输入输入X2,得,得 WT(1)X2=(0.7,0.8,-0.6,0)(-1,0,1.5,-0.5)T=-1.6 o2(1)=sgn(-1.6)
13、=-1 W(2)=W(1)+d2-o2(1)X2 =(0.7,0.8,-0.6,0)T+0.1-1-(-1)(-1,0,1.5,-0.5)T =(0.7,0.8,-0.6,0)T由于由于d2=o2(1),所以,所以W(2)=W(1)。3.1.3感知器的学习感知器的学习26第26页,本讲稿共94页第三步第三步 输入输入X X3 3,得,得 WT(2)X3=(0.7,0.8,-0.6,0)(-1,-1,1,0.5)T=-2.1 O3(2)=sgn(-2.1)=-1W(3)=W(2)+d3-o3(2)X3 =(0.7,0.8,-0.6,0)T+0.11-(-1)(-1,-1,1,0.5)T =(0.
14、5,0.6,-0.4,0.1)T第四步第四步 返回到第一步,继续训练直到返回到第一步,继续训练直到dp-op=0,p=1,2,3。3.1.3感知器的学习感知器的学习27第27页,本讲稿共94页3.1.4单层感知器的局限性单层感知器的局限性n问题:能否用感知器解决如下问题?问题:能否用感知器解决如下问题?28第28页,本讲稿共94页3.1.4单层感知器的局限性单层感知器的局限性n无法解决无法解决“异或异或”问题问题n只能解决线性可分问题只能解决线性可分问题“异或异或”的真值表的真值表x1x2y00001110111029第29页,本讲稿共94页双层感知器双层感知器“异或异或”问题分问题分类类例四
15、例四 用两计算层感知器解决用两计算层感知器解决“异或异或”问题。问题。“异或异或”的真值的真值表表x1 x2y1 y2 o 0 01 1 00 11 011 00 111 11 1 03.1.5多层感知器多层感知器30第30页,本讲稿共94页给出具有一个具有单隐层的感知器,其中隐层的两个节点相当于两个给出具有一个具有单隐层的感知器,其中隐层的两个节点相当于两个独立的符号单元(但计算节点感知器)。这两个符号单元可分别在由独立的符号单元(但计算节点感知器)。这两个符号单元可分别在由x1x1、x2x2构成的平面上确定两条分界直线构成的平面上确定两条分界直线S1S1和和S2S2,从而构成一个开放式凸域
16、。,从而构成一个开放式凸域。显然通过适当调整两条直线的位置,可使两类线性不可分样本分别位显然通过适当调整两条直线的位置,可使两类线性不可分样本分别位于该开放式凸域内部和外部。此时对于隐节点于该开放式凸域内部和外部。此时对于隐节点1 1来说,直线来说,直线S1S1下面的样本下面的样本使其输出使其输出y1=1y1=1,而直线上面的样本使其输出为,而直线上面的样本使其输出为y2=1y2=1,而直线下面的样本使,而直线下面的样本使其输出为其输出为y2=0y2=0。当输入样本为当输入样本为o o类时,其位置位于开放式凸域外部,即或者同时同时处类时,其位置位于开放式凸域外部,即或者同时同时处在两直线在两直
17、线S1S1、S2S2上方,使上方,使y1=0y1=0,y2=1y2=1;或者同时处在两直线;或者同时处在两直线S1S1、S2S2下方,下方,使使y1=1y1=1,y2=0y2=0。输出层节点一隐层两节点的输出输出层节点一隐层两节点的输出y1y1、y2y2作为输入,其结构也相当于一个符作为输入,其结构也相当于一个符号单元。如果经过训练,使其具有逻辑号单元。如果经过训练,使其具有逻辑“与非与非”功能,则疑惑问题即可得到解决。功能,则疑惑问题即可得到解决。根据根据“与非与非”逻辑,当隐节点输出为逻辑,当隐节点输出为y1=1y1=1,y2=1y2=1时,该节点输出为时,该节点输出为o=0o=0,当隐,
18、当隐节点输出为节点输出为y1=1y1=1,y2=0y2=0时,或时,或y1=0y1=0,y2=1y2=1时,该节点输出时,该节点输出o=1o=1。可以看出单。可以看出单隐层感知器确实可以解决异或问题,因此具有解决线性不可分问题的隐层感知器确实可以解决异或问题,因此具有解决线性不可分问题的能力。能力。31第31页,本讲稿共94页多层感知器的提出多层感知器的提出单计算层感知器的局限性单计算层感知器的局限性 只能解决线性可分问题,而大量的分类问题是线性只能解决线性可分问题,而大量的分类问题是线性不可分的。不可分的。解决的有效办法解决的有效办法 在输入层与输出层之间引入隐层作为输入模式的在输入层与输出
19、层之间引入隐层作为输入模式的“内部表示内部表示”,将单计算层感知器变成,将单计算层感知器变成多(计算)层多(计算)层感知器感知器。采用采用非线性连续函数作为转移函数非线性连续函数作为转移函数,使区域边界线,使区域边界线的基本线素由直线变成曲线,从而使整个边界线变的基本线素由直线变成曲线,从而使整个边界线变成连续光滑的曲线。成连续光滑的曲线。32第32页,本讲稿共94页3.1.5多层感知器多层感知器33第33页,本讲稿共94页Wj(t)=dj-oj(t)X3.1.5多层感知器多层感知器具有不同隐层数的感知器的分类能力对比具有不同隐层数的感知器的分类能力对比 返回返回 34第34页,本讲稿共94页
20、3.2自适应线性单元自适应线性单元19621962年美国斯坦福大学教授年美国斯坦福大学教授WidrowWidrow提出一种自适提出一种自适应可调的神经网络,其基本构成单元称为自适应线应可调的神经网络,其基本构成单元称为自适应线性单元。这种自适应可调的神经网络主要适用于信性单元。这种自适应可调的神经网络主要适用于信号处理中的自适应滤波、预测和模式识别。号处理中的自适应滤波、预测和模式识别。返回返回 35第35页,本讲稿共94页3.3 BP网络网络 误差反向传播神经网络,简称误差反向传播神经网络,简称BP(Back Propagation)网络,是一种单向传播的多层前向网络。在模网络,是一种单向传
21、播的多层前向网络。在模式识别、图像处理、系统辨识、函数拟合、优化计算、最式识别、图像处理、系统辨识、函数拟合、优化计算、最优预测和自适应控制等领域有着较为广泛的应用。优预测和自适应控制等领域有着较为广泛的应用。BP网络的示意图网络的示意图36第36页,本讲稿共94页误差反向传播算法简称误差反向传播算法简称BP算法,其基本思想是最小算法,其基本思想是最小二乘法。它采用梯度搜索技术,以期使网络的实际二乘法。它采用梯度搜索技术,以期使网络的实际输出值与期望输出值的误差均方值为最小。输出值与期望输出值的误差均方值为最小。BP算法的学习过程由正向传播和反向传播组成。在正算法的学习过程由正向传播和反向传播
22、组成。在正向传播过程中,输入信息从输入层经隐含层逐层处理,向传播过程中,输入信息从输入层经隐含层逐层处理,并传向输出层,每层神经元(节点)的状态只影响下一并传向输出层,每层神经元(节点)的状态只影响下一层神经元的状态。如果在输出层不能得到期望输出,则层神经元的状态。如果在输出层不能得到期望输出,则转入反向传播,将误差信号沿原来的连接通路返回,通转入反向传播,将误差信号沿原来的连接通路返回,通过修改各层神经元的权值,使误差信号最小。过修改各层神经元的权值,使误差信号最小。37第37页,本讲稿共94页基于基于BPBP算法的多层前馈网络模型算法的多层前馈网络模型误差反传(误差反传(BP)算法)算法3
23、8第38页,本讲稿共94页n模型的数学表达模型的数学表达输入向量:输入向量:X=(x1,x2,xi,xn)T隐层输出向量:隐层输出向量:Y=(y1,y2,yj,ym)T输出层输出向量:输出层输出向量:O=(o1,o2,ok,ol)T期望输出向量:期望输出向量:d=(d1,d2,dk,dl)T输入层到隐层之间的权值矩阵:输入层到隐层之间的权值矩阵:V=(V1,V2,Vj,Vm)隐层到输出层之间的权值矩阵:隐层到输出层之间的权值矩阵:W=(W1,W2,Wk,Wl)各个变量之间如何建立联系,来描述整个网络?各个变量之间如何建立联系,来描述整个网络?39第39页,本讲稿共94页对于输出层:对于输出层:
24、k=1,2,l (3.1)k=1,2,l (3.2)对于隐层:对于隐层:j=1,2,m (3.3)j=1,2,m (3.4)BP学习算法学习算法40第40页,本讲稿共94页双极性双极性SigmoidSigmoid函数:函数:单极性单极性SigmoidSigmoid函数:函数:(3.5)BP学习算法学习算法41第41页,本讲稿共94页输出误差输出误差E E定义:定义:(3.6)将以上误差定义式展开至隐层:将以上误差定义式展开至隐层:(3.7)BP学习算法学习算法42第42页,本讲稿共94页进一步展开至输入层:进一步展开至输入层:(3.8)BP学习算法学习算法43第43页,本讲稿共94页j=0,1
25、,2,m;k=1,2,l (3.9a)i=0,1,2,n;j=1,2,m (3.9b)式中负号表示梯度下降,常数式中负号表示梯度下降,常数(0,1)(0,1)表示比例系数。表示比例系数。在全部推导过程中,对输出层有在全部推导过程中,对输出层有j=0,1,2,m;k=1,2,l 对隐层有对隐层有 i=0,1,2,n;j=1,2,mBP学习算法学习算法44第44页,本讲稿共94页对于输出层,式对于输出层,式(3.9a)(3.9a)可写为可写为(3.10a)对隐层,式对隐层,式(3.9b)(3.9b)可写为可写为(3.10b)对输出层和隐层各定义一个误差信号,令对输出层和隐层各定义一个误差信号,令(
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经网络 优秀 PPT
限制150内