神经网络-(6)BP网络wu.ppt
《神经网络-(6)BP网络wu.ppt》由会员分享,可在线阅读,更多相关《神经网络-(6)BP网络wu.ppt(58页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、人工神经网络及其应用第6章BP神经网络1一、内容回顾内容回顾二、二、BPBP网络网络三、网络设计三、网络设计四、改进四、改进BPBP网络网络五、内容小结五、内容小结内容安排2一、内容回顾 感知机感知机自适应线性元件自适应线性元件3一、内容回顾 感知机感知机感知机简介感知机简介神经元模型神经元模型网络结构网络结构功能解释功能解释学习和训练学习和训练局限性局限性自适应线性元件自适应线性元件4一、内容回顾 感知机感知机自适应线性元件自适应线性元件AdlineAdline简介简介网络结构网络结构网络学习网络学习网络训练网络训练52.1 BPBP网络简介网络简介2.2 2.2 网络模型网络模型2.3 2
2、.3 学习规则学习规则2.4 2.4 图形解释图形解释2.5 2.5 网络训练网络训练二、BP网络6反向传播网络反向传播网络(Back-Propagation Network(Back-Propagation Network,简简称称BPBP网络网络)是将是将W-HW-H学习规则一般化,学习规则一般化,对对非线性可微分函数非线性可微分函数进行权值训练的多层网络进行权值训练的多层网络 权值的调整采用权值的调整采用反向传播反向传播(Back-propagation(Back-propagation)的学习算法的学习算法它是一种它是一种多层前向反馈神经网络多层前向反馈神经网络,其神经元的,其神经元的
3、变换函数是变换函数是S S型函数型函数输出量为输出量为0 0到到1 1之间之间的的连续量连续量,它可实现从输入,它可实现从输入到输出的到输出的任意的非线性映射任意的非线性映射2.1 BP神经网络7BPBP网络主要用于下述方面网络主要用于下述方面函数逼近函数逼近:用输入矢量和相应的输出矢量训:用输入矢量和相应的输出矢量训练一个网络逼近一个函数练一个网络逼近一个函数模式识别和分类模式识别和分类:用:用一个特定的输出矢量将一个特定的输出矢量将它与输入矢量联系起来它与输入矢量联系起来;把输入矢量以所定;把输入矢量以所定义的合适方式进行分类;义的合适方式进行分类;数据压缩数据压缩:减少输出矢量维数以便于
4、传输或:减少输出矢量维数以便于传输或存储存储具有较强泛化性能:使网络平滑地学习函数,具有较强泛化性能:使网络平滑地学习函数,使网络能够合理地响应被训练以外的输入使网络能够合理地响应被训练以外的输入 泛化性能只对被训练的输入输出在最大值范泛化性能只对被训练的输入输出在最大值范围内的数据有效,即围内的数据有效,即网络具有内插值特性,不网络具有内插值特性,不具有外插值性具有外插值性。超出最大训练值的输入必将产。超出最大训练值的输入必将产生大的输出误差生大的输出误差2.1 BP神经网络82.2 网络模型一个具有一个具有r r个个输入输入和一个和一个隐含层隐含层的神经网络模型结构的神经网络模型结构 9感
5、知器感知器和和自适应线性元件自适应线性元件的主要差别在激活函数的主要差别在激活函数上:前者是二值型的,后者是线性的上:前者是二值型的,后者是线性的BPBP网络具有网络具有一层或多层隐含层一层或多层隐含层,除了在多层网络,除了在多层网络上与前面已介绍过的模型有不同外,其主要差别上与前面已介绍过的模型有不同外,其主要差别也表现在激活函数上。也表现在激活函数上。BPBP网络的网络的激活函数必须是处处可微的激活函数必须是处处可微的,因此它不,因此它不能采用二值型的阀值函数能采用二值型的阀值函数00,11或符号函数或符号函数 1 1,11BPBP网络经常使用的是网络经常使用的是S S型型的对数或正切激活
6、函数的对数或正切激活函数和线性函数和线性函数2.1 网络模型10BPBP网络特点网络特点输入和输出是并行的模拟量输入和输出是并行的模拟量网络的输入输出关系由各层连接的权因子决定,没有网络的输入输出关系由各层连接的权因子决定,没有固定的算法固定的算法权因子通过学习信号调节。学习越多,网络越聪明权因子通过学习信号调节。学习越多,网络越聪明隐含层越多,网络输出精度越高,且个别权因子的损隐含层越多,网络输出精度越高,且个别权因子的损坏不会对网络输出产生大的影响坏不会对网络输出产生大的影响只有当希望对网络的输出进行限制,如限制在只有当希望对网络的输出进行限制,如限制在0 0和和1 1之之间,那么在间,那
7、么在输出层输出层应当包含应当包含S S型激活函数型激活函数在在一般情况一般情况下,均是在下,均是在隐含层采用隐含层采用S S型激活函数型激活函数,而,而输出层采用线性激活函数输出层采用线性激活函数2.1 网络模型11S S型函数具有非线性放大系数功能,可以把输入从负无穷型函数具有非线性放大系数功能,可以把输入从负无穷大到正无穷大的信号,变换成大到正无穷大的信号,变换成-1-1到到l l之间输出之间输出对较大的输入信号,放大系数较小;而对较小的输入信对较大的输入信号,放大系数较小;而对较小的输入信号,放大系数则较大号,放大系数则较大采用采用S S型激活函数可以处理和逼近非线性输入型激活函数可以处
8、理和逼近非线性输入/输出关系输出关系2.1 网络模型122.3学习规则BPBP算法属于算法属于算法,是一种算法,是一种监督式的学习算法监督式的学习算法主要思想主要思想对于对于q q个输入学习样本:个输入学习样本:P P1,1,P P2,2,P Pq q,已知与其对应的,已知与其对应的输出样本为:输出样本为:T T1,1,T T2,2,T Tq q使网络输出层的使网络输出层的误差平方和误差平方和达到最小达到最小用网络的实际输出用网络的实际输出A A1,1,A A2,2,A Aq,q,与目标矢量与目标矢量T T1,1,T T2,2,T Tq q之间的误差修改其权值,使之间的误差修改其权值,使A A
9、m m与期望的与期望的T Tm,m,(m ml,ql,q)尽可能接近尽可能接近13BPBP算法是由两部分组成算法是由两部分组成,信息的信息的正向传递与误差正向传递与误差的反向传播的反向传播正向传播正向传播过程中,输入信息从输入层经隐含层逐层计过程中,输入信息从输入层经隐含层逐层计算传向输出层,每一层神经元的状态只影响下一层神算传向输出层,每一层神经元的状态只影响下一层神经元的状态经元的状态如果在输出层未得到期望的输出,则计算输出层的误如果在输出层未得到期望的输出,则计算输出层的误差变化值,然后转向差变化值,然后转向反向传播反向传播,通过网络将误差信号,通过网络将误差信号沿原来的连接通路沿原来的
10、连接通路反传回反传回来修改各层神经元的权值直来修改各层神经元的权值直至达到期望目标至达到期望目标2.3学习规则14假设假设输入输入为为P P,输入神经元输入神经元有有r r个,个,隐含层隐含层内有内有s1s1个神经个神经元,激活函数为元,激活函数为F1F1,输出层输出层内有内有s2s2个神经元,对应的激个神经元,对应的激活函数为活函数为F2F2,输出为,输出为A A,目标矢量为,目标矢量为T T2.3学习规则.15信息的正向传递信息的正向传递隐含层中第隐含层中第i i个神经元的输出个神经元的输出输出层第输出层第k k个神经元的输出个神经元的输出定义误差函数定义误差函数2.3学习规则162.3学
11、习规则利用梯度下降法求权值变化及误差的反向传播利用梯度下降法求权值变化及误差的反向传播输出层的权值变化输出层的权值变化其中其中同理可得同理可得172.3学习规则利用梯度下降法求权值利用梯度下降法求权值变化及误差的反向传播变化及误差的反向传播输入到隐含层权值变化输入到隐含层权值变化其中其中同理可得同理可得18对于对于f1为对数为对数S型激活函数:型激活函数:对于对于f2为线性激活函数为线性激活函数2.3学习规则192.4 误差反向传播图形解释误差反向传播过程实际上是通过计算误差反向传播过程实际上是通过计算输出层的误差输出层的误差e ek k,然后,然后将其与输出层激活函数的将其与输出层激活函数的
12、一阶导数一阶导数f2f2相乘相乘来求得来求得kiki由于隐含层中没有直接给出目标矢量,所以利用输出层的由于隐含层中没有直接给出目标矢量,所以利用输出层的kiki反向传递来求出隐含层权值的变化量反向传递来求出隐含层权值的变化量w2w2kiki。然后计算。然后计算同样通过将同样通过将e ei i与该层激活函数的一阶导数与该层激活函数的一阶导数f1f1相乘,而求得相乘,而求得ijij,以此求出前层权值的变化量,以此求出前层权值的变化量w1w1ijij如果前面还有隐含层,沿用上述同样方法依此类推,一直如果前面还有隐含层,沿用上述同样方法依此类推,一直将输出误差将输出误差e ek k逐层的反推算到第一层
13、为止逐层的反推算到第一层为止202.4 误差反向传播图形解释212.5 网络训练训练训练BPBP网络,需要计算网络加权输入矢量以及网网络,需要计算网络加权输入矢量以及网络输出和络输出和误差矢量误差矢量,然后,然后求误差平方和求误差平方和当所训练矢量的误差平方和当所训练矢量的误差平方和小于误差目标小于误差目标,训练训练停止停止;否则在输出层计算误差变化,且采用;否则在输出层计算误差变化,且采用反向反向传播学习规则来调整权值传播学习规则来调整权值,然后重复此过程,然后重复此过程网络完成训练后,对网络输入一个不是训练集合网络完成训练后,对网络输入一个不是训练集合中的矢量,网络将以泛化方式给出输出结果
14、中的矢量,网络将以泛化方式给出输出结果222.5 网络训练为了能够较好地掌握为了能够较好地掌握BPBP网络的训练过程,我网络的训练过程,我们用两层网络为例来叙述们用两层网络为例来叙述BPBP网络的训练步骤网络的训练步骤初始化:用小的随机数初始化每一层的权值初始化:用小的随机数初始化每一层的权值W W和偏差和偏差B B,保证网络不被,保证网络不被大的加权输入饱和大的加权输入饱和期望误差最小值:期望误差最小值:error_goalerror_goal最大循环次数:最大循环次数:max_epochmax_epoch修正权值的学习速率:修正权值的学习速率:lrlr 一般情况下一般情况下,lr,lr0.
15、l0.l0.80.8232.5 网络训练变量表达:计算网络各层输出矢量变量表达:计算网络各层输出矢量A1A1和和A2A2以及网以及网络误差络误差E EA1A1tansig(W1*Ptansig(W1*P,B1)B1);A2A2purelin(W2*A1purelin(W2*A1,B2)B2);E ET-AT-A;权值修正:计算各层反传的误差变化权值修正:计算各层反传的误差变化D2D2和和D1D1并计并计算各层权值的修正值以及新权值:算各层权值的修正值以及新权值:D2D2deltalin(A2deltalin(A2,E)E);D1D1deltatan(A1deltatan(A1,D2D2,W2)
16、W2);dWldWl,dBldBllearnbp(Plearnbp(P,D1D1,lr)lr);dW2dW2,dB2dB21earnbp(A11earnbp(A1,D2D2,1r)1r);W1W1W1W1十十dW1dW1;B1B1B1B1十十dBldBl;W2W2W2W2十十dW2dW2;B2B2B2B2十十dB2dB2242.5 网络训练计算权值修正后误差平方和计算权值修正后误差平方和SSEsumsqr(T-purelin(W2*tansig(W1*P,B1),B2)检查:检查:SSE是否小于是否小于err_goal。若是,训练结束;否则。若是,训练结束;否则继续继续以上所有的学习规则与训练
17、的全过程,可以用函数以上所有的学习规则与训练的全过程,可以用函数trainbp.m来完成来完成它的使用只需定义有关参数:显示间隔次数,最大循环次数,它的使用只需定义有关参数:显示间隔次数,最大循环次数,目标误差,以及学习速率。调用后返回训练后权值,循环总目标误差,以及学习速率。调用后返回训练后权值,循环总数和最终误差数和最终误差TPdisp_freq max_epoch err_goal 1rW,B,epochs,errorstrainbp(W,B,F,P,T,TP)25三、网络设计3.1 3.1 网络的层数网络的层数3.2 3.2 隐含层神经元数隐含层神经元数3.3 3.3 初始权值的选取初
18、始权值的选取3.4 3.4 学习速率学习速率3.5 3.5 期望误差的选取期望误差的选取3.6 3.6 应用举例应用举例3.7 3.7 局限性局限性263.1 网络的层数理论上已经证明:具有偏差和至少一个理论上已经证明:具有偏差和至少一个S S型隐型隐含层加上一个线性输出层的网络,能够逼近任含层加上一个线性输出层的网络,能够逼近任何有理函数。何有理函数。定理定理:增加层数主要可以进一步的降低误差,提高精增加层数主要可以进一步的降低误差,提高精度,但同时也使网络复杂化,从而增加了网络度,但同时也使网络复杂化,从而增加了网络权值的训练时间。权值的训练时间。一般情况下应优先考虑增加隐含层中神经元数一
19、般情况下应优先考虑增加隐含层中神经元数 仅用具有非线性激活函数的单层网络来解决问仅用具有非线性激活函数的单层网络来解决问题没有必要或效果不好题没有必要或效果不好线性问题线性问题非线性问题非线性问题273.2 隐含层神经元数网络训练精度的提高,可以通过采用一个隐含层,而网络训练精度的提高,可以通过采用一个隐含层,而增加其神经元数的方法来获得。这在结构实现上,要增加其神经元数的方法来获得。这在结构实现上,要比增加更多的隐含层简单得多比增加更多的隐含层简单得多定理:定理:实现任意实现任意N N个输入向量构成的任何布尔函数的前向个输入向量构成的任何布尔函数的前向网络所需权系数数目为网络所需权系数数目为
20、在具体设计时,比较实际的做法是通过对不同神经元在具体设计时,比较实际的做法是通过对不同神经元数进行训练对比,去掉不起作用的隐单元,然后适当数进行训练对比,去掉不起作用的隐单元,然后适当地加上一点余量地加上一点余量28隐含层神经元数隐含层神经元数输入r维,输出s2维,样本数q下,隐单元数s1:293.3 3.3 初始权值的选取初始权值的选取一般取初始权值在一般取初始权值在(-1(-1,1)1)之间的随机数之间的随机数威得罗等人在分析了两层网络是如何对一个函数进行威得罗等人在分析了两层网络是如何对一个函数进行训练后,提出一种选定初始权值的策略训练后,提出一种选定初始权值的策略选择权值的量级为选择权
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经网络 BP 网络 wu
限制150内