神经网络第四章精品文稿.ppt
《神经网络第四章精品文稿.ppt》由会员分享,可在线阅读,更多相关《神经网络第四章精品文稿.ppt(52页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、神经网络第四章第1页,本讲稿共52页第第4章章反向传播网络反向传播网络反向传播网络也称为BP(BackPropagation)网络,采用推广的W-H学习规则-BP算法BP网络的主要用途:网络的主要用途:1.函数逼近2.模式识别3.分类4.数据压缩:在人工神经网络的实际应用中,绝大多数的网络模型都是BP网络及其变化形式。第2页,本讲稿共52页1BP网络模型与结构BP网络模型网络模型输入层隐层输出层第3页,本讲稿共52页1BP网络模型与结构BP网络的激活函数一定要可微多数情况下,隐层为S型,输出层为线性。输入与输出关系要求:非线性、光滑、取值连续,分类精确网络误差测定第p个样本的误差测度网络关于整
2、个样本集的误差测度,第4页,本讲稿共52页1BP网络模型与结构权值与偏差:隐层输出层,第5页,本讲稿共52页1BP网络模型与结构一组输入与输出多组输入与输出,第6页,本讲稿共52页关系表达式:1.输入向量、输出向量的维数、网络隐藏层的层数和 各个隐藏层神经元的个数的决定。2.BP网很多都选用二级网络。1BP网络模型与结构第7页,本讲稿共52页2BP学习规则是有指导训练的前馈多层网络训练算法,靠调节各层的加权,使网络学会由输入输出对组成的训练组。类似于感知器中线性单元和非线性单元的训练算法,执行优化的基本方法是梯度下降法。求多元函数的U(x1,x2,xn)的极小值:若出发点是M0=(x10,x2
3、0,xn0),则自变量按如下规则改变:,第8页,本讲稿共52页2BP学习规则 BP算法的主要思想:通过引入误差函数,对于学习样本P及目标输出T,利用梯度下降法来调整权值W和B,使网络的实际输出A与T尽可能接近,而使误差尽量达到最小。其过程是用输出层的误差估计输出层的直接前导层的误差,再用输出层前导层误差估计更前一层的误差。如此获得所有其它各层的误差估计,并用这些估计实现对权矩阵的修改。形成将输出端表现出的误差沿着与输入信号相反的方向逐级向输入端传递的过程 BP算法从形式上看,分为两个计算过程:1信息的正向传递;2.调整W和B的误差反向传播第9页,本讲稿共52页2BP学习规则1.信息的正向传递隐
4、层中第i个神经元输出:输出层中第k个神经元输出:第10页,本讲稿共52页2BP学习规则误差函数一组输入情形:其中,第11页,本讲稿共52页2BP学习规则q组输入情形:第12页,本讲稿共52页2BP学习规则2.误差反向传播 输出层权值、偏差的调整因为故由最速下降法,得权值改变量:第13页,本讲稿共52页2BP学习规则偏差改变量:其中 隐层权值、偏差的调整因为第14页,本讲稿共52页2BP学习规则故由最速下降法,得其中第15页,本讲稿共52页3误差反向传播的流程图与图形解释第16页,本讲稿共52页3误差反向传播的流程图与图形解释S型激活函数1(0,0.5)n(0,0)o0.5f(n)0.25o01
5、第17页,本讲稿共52页4BP网络的训练及其设计过程设计Bp网络的结构包括以下内容:网络的层数,每层神经元数,每层的激活函数等BP网络的训练步骤:1)初始化每层权值和偏差,期望误差,最大循环次数,学习率等2)建立多层前向网络函数newcf.m或newff.m,格式如下:net=newcf(minmax(P),5,1,tansigpurelin,traingd);3)训练net=train(net,P,T)第18页,本讲稿共52页4BP网络的训练及其设计过程例4.1用于函数逼近的BP网络的设计。迭代次数:经过4000-7000次训练成功,误差小于给定的门限误差0.02。误差变化图:逼近曲线效果良
6、好结论:二层BP网络可很好地逼近非线性函数。第19页,本讲稿共52页5BP网络的设计考虑因素:层数,每层神经元数,初始化,学习率等1 网络的层数理论结果:具有偏差和至少一个S型隐含层的网络,能够逼近任意的有理函数。层数对网络影响:增加层数可进一步降低误差,提高精度;不足之处是使网络结构复杂化。隐层节点数对网络影响:可提高精度,降低误差;虽然也增加了一点网络的复杂度,但比增加层数要低设计的原则:首先应选择层数较少的网络,这样可降低复杂度;同时为了提高精度和降低误差,应先考虑增加隐层的神经元数目。第20页,本讲稿共52页5BP网络的设计为了提高精度和逼近能力:为了提高精度和逼近能力:1)增加隐层神
7、经元数;)增加隐层神经元数;2)增加网络层数。)增加网络层数。综合效果:以增加网络层数效果更好。综合效果:以增加网络层数效果更好。第21页,本讲稿共52页5BP网络的设计例4.2考虑两个单元输入的联想问题:其输入和输出为:P=-32,T=0.4,0.8目标误差:0.001该问题可采用自适应网络解决:w=0.08,b=0.64,e=T-A=0利用Bp网络解决:有一定误差。结论:能利用自适应网络或感知器解决的问题,应尽量不用Bp网络第22页,本讲稿共52页5BP网络的设计例4.3用一层网络来实现下面的输入/输出关系:P=-6-6.1-4.1-444.166.1T=0.00.00.970.990.0
8、10.0311理论分析:约束等式共8个,参数1个权值+1个偏差。因此,可能无准确解。仿真计算:可求出近似解。但效果与线性网络相当。逼近图效果:近似解相当于一种分类功能。结论:单层网络不能解决。能利用单层网络解决问题,应先考虑利用感知器和自适应线性元件。第23页,本讲稿共52页5BP网络的设计例4.4非线性误差曲面特性观察BP网络的误差函数E凸凹不平,有些地方很平坦,另外的地方很陡峭,这对算法的效果有较大影响。从提高算法的效率上讲,在陡峭的地方应选择小的学习率,以避免“过调”,在平坦的地方利用大学习率,以加快收敛速度。结论:常学习率在误差曲面非常不规则时可能效果不好。第24页,本讲稿共52页5B
9、P网络的设计2 隐含层的神经元数问题:隐含层的神经元数应选择为多少才适合?例4.5用两层BP网络实现“异或”问题。数学描述:输入及目标输出矢量隐层神经元数分别为:2,3,4,5,6,20,25,30对二值型离散数据也能利用BP网络逼近:可将二值型激活函数利用S型代替,训练成功后,将输出层的激活函数换成二值型函数,则训练达到一定精度时,实际输出与目标输出一致。第25页,本讲稿共52页5BP网络的设计训练效果表s1Time(s)epoch25.7111834.409044.398854.458564.6285203.5768254.0672305.1196第26页,本讲稿共52页5BP网络的设计分
10、析:神经元太少,影响学习效果,精度不高,易训练失败理论上讲,神经元越多,网络功能越强,但神经元越多训练时间会增加,并可能出现不协调的拟合。s1=3,4,5,6的效果相当,s1小,循环一次的时间少结论:在隐层神经元数设计的原则是在能解决问题的情况下,增加12个神经元。第27页,本讲稿共52页5BP网络的设计3 初始权值的选取饱和区域:误差曲面中非常平坦的区域,通常出现在为很小的值,因,且初始值的选取应避免取在饱和区域。隐层的初始值:在工具箱中,可采用initnw.m函数初始化W1和B1第28页,本讲稿共52页5BP网络的设计例4.6.好的初始值的训练效果观察。(例1数据)旧方法:随机初始化的训练
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经网络 第四 精品 文稿
限制150内