BP神经网络理论基础介绍.ppt
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《BP神经网络理论基础介绍.ppt》由会员分享,可在线阅读,更多相关《BP神经网络理论基础介绍.ppt(73页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、2022/10/261人工神经元模拟生物神经元的人工神经元模拟生物神经元的一一阶特性特性。输入:输入:X=(x1,x2,xn)联接权:联接权:W=(w1,w2,wn)T网络输入:网络输入:net=xiwi向量形式:向量形式:net=XW2022/10/262xnwnx1w1x2w2net=XW激激活活函函数数执执行行对对该该神神经经元元所所获获得得的的网网络络输输入入的的变变换换,也可以称为激励函数、活化函数:也可以称为激励函数、活化函数:o=f(net)1、线性函数(性函数(LinerFunction)f(net)=k*net+c 2022/10/263netoocifnetf(net)=k
2、*netif|net|0为一常数,被称为饱和值,为该神经元的最大输为一常数,被称为饱和值,为该神经元的最大输出。出。2022/10/2642022/10/265-netoifnetf(net)=-ifnet、均为非负实数,均为非负实数,为阈值为阈值二值形式:二值形式:1ifnetf(net)=0ifnet双极形式:双极形式:1ifnetf(net)=-1ifnet 2022/10/266 2022/10/267-onet0压压缩缩函函数数(Squashing Function)和和逻逻辑辑斯斯特特函函数数(LogisticFunction)。)。f(net)=a+b/(1+exp(-d*net
3、)a,b,d为常数。它的饱和值为为常数。它的饱和值为a和和a+b。最简单形式为:最简单形式为:f(net)=1/(1+exp(-d*net)函数的饱和值为函数的饱和值为0和和1。S形函数有较好的增益控制形函数有较好的增益控制 2022/10/2682022/10/269a+bo(0,c)netac=a+b/2生物神经网生物神经网六个基本特征六个基本特征神神经元元及及其其联接接、信信号号传递、训练、刺刺激激与与抑抑制制、累累积效效果果、阈值。人工神经元的基本构成人工神经元的基本构成2022/10/2610 xnwnx1w1x2w2net=XW激活函数与激活函数与M-P模型模型 线性函数、非性函数
4、、非线性斜面函数、性斜面函数、阈值函数函数S形函数形函数 M-P模型模型2022/10/2611x2w2fo=f(net)xnwnnet=XWx1w12022/10/2612x1x2xno1o2omwnmw11w1mw2mwn1输出层输出层输入层输入层W=(wij)输输出出层层的的第第j个个神神经经元元的的网网络络输输入入记记为为netj:netj=x1w1j+x2w2j+xnwnj其中其中,1jm。取。取NET=(net1,net2,netm)NET=XWO=F(NET)2022/10/26132022/10/2614输出层输出层x1o1w11w1mx2o2w2mxnomwn1输入层输入层V
5、V=(vij)NET=XW+OVO=F(NET)时间参数参数神经元的状态在主时钟的控制下同步变化神经元的状态在主时钟的控制下同步变化考虑考虑X总加在网上的情况总加在网上的情况NET(t+1)=X(t)W+O(t)VO(t+1)=F(NET(t+1)O(0)=0考虑仅在考虑仅在t=0时加时加X的情况。的情况。稳定性判定定性判定2022/10/26152022/10/2616输出层输出层隐藏层隐藏层输入层输入层o1o2omx1x2xn层次划分次划分 信号只被允许从较低层流向较高层。信号只被允许从较低层流向较高层。层层号号确确定定层层的的高高低低:层层号号较较小小者者,层层次次较较低,层号较大者,层
6、次较高。低,层号较大者,层次较高。输入入层:被被记记作作第第0层层。该该层层负负责责接接收收来来自自网络外部的信息网络外部的信息2022/10/2617输出层输出层隐藏层隐藏层输入层输入层o1o2omx1x2xn第第j层:第第j-1层层的的直直接接后后继继层层(j0),它它直直接接接接受第受第j-1层的输出。层的输出。输出出层:它它是是网网络络的的最最后后一一层层,具具有有该该网网络络的的最最大层号,负责输出网络的计算结果。大层号,负责输出网络的计算结果。隐藏藏层:除输入层和输出层以外的其它各层叫隐:除输入层和输出层以外的其它各层叫隐藏层。隐藏层不直接接受外界的信号,也不直藏层。隐藏层不直接接
7、受外界的信号,也不直接向外界发送信号接向外界发送信号2022/10/2618输出层输出层隐藏层隐藏层输入层输入层o1o2omx1x2xn约定约定 :输出层的层号为该网络的层数:输出层的层号为该网络的层数:n层网络,或层网络,或n级网络。级网络。第第j-1层层到到第第j层层的的联联接接矩矩阵阵为为第第j层层联联接接矩矩阵阵,输输出出层层对对应应的的矩矩阵阵叫叫输输出出层层联联接接矩矩阵阵。今今后后,在在需需要要的的时时候候,一一般般我我们们用用W(j)表示第表示第j层矩阵层矩阵。2022/10/2619输出层输出层隐藏层隐藏层输入层输入层o1o2omx1x2xnW(1)W(2)W(3)W(h)2
8、022/10/2620输出层输出层隐藏层隐藏层输入层输入层o1o2omx1x2xnW(1)W(2)W(3)W(h)非非线性激活函数性激活函数 F(X)=kX+CF(X)=kX+CF F3 3(F(F2 2(F(F1 1(XW(XW(1)(1)W)W(2)(2)W)W(3)(3)2022/10/26212022/10/2622x1o1输出层输出层隐藏层隐藏层输入层输入层x2o2omxn如如果果将将输输出出信信号号反反馈馈到到输输入入端端,就就可可构构成成一一个个多多层层的的循环网络。循环网络。输入的原始信号被逐步地加强、被修复。输入的原始信号被逐步地加强、被修复。大大脑脑的的短短期期记忆特特征征
9、:看看到到的的东东西西不不是是一一下下子子就就从从脑海里消失的。脑海里消失的。稳定定:反馈信号会引起网络输出的不断变化。我们:反馈信号会引起网络输出的不断变化。我们希望这种变化逐渐减小,并且最后能消失。当变希望这种变化逐渐减小,并且最后能消失。当变化最后消失时,网络达到了平衡状态。如果这种化最后消失时,网络达到了平衡状态。如果这种变化不能消失,则称该网络是不稳定的。变化不能消失,则称该网络是不稳定的。2022/10/2623人工神经网络最具有吸引力的特点是它的学习能力。人工神经网络最具有吸引力的特点是它的学习能力。1962年年,Rosenblatt给给出出了了人人工工神神经经网网络络著著名名的
10、的学学习习定定理理:人人工工神神经经网网络络可可以以学学会会它它可可以以表表达达的的任任何何东东西。西。人工神经网络的表达能力大大地限制了它的学习能力。人工神经网络的表达能力大大地限制了它的学习能力。人工神经网络的学习过程就是对它的训练过程人工神经网络的学习过程就是对它的训练过程2022/10/2624无导师学习无导师学习(UnsupervisedLearning)与无导师训练与无导师训练(UnsupervisedTraining)相对应相对应 抽抽取取样本本集集合合中中蕴含含的的统计特特性性,并并以以神神经经元元之之间间的的联接权的形式存于网络中。联接权的形式存于网络中。2022/10/26
11、25有有导导师师学学习习(Supervised Learning)与与有有导导师师训训练练(SupervisedTraining)相对应。相对应。输入向量与其对应的输出向量构成一训练。输入向量与其对应的输出向量构成一训练。有导师学习的训练算法的主要步骤包括:有导师学习的训练算法的主要步骤包括:1)从样本集合中取一个样本(从样本集合中取一个样本(Ai,Bi););2)计算出网络的实际输出计算出网络的实际输出O;3)求求D=Bi-O;4)根据根据D调整权矩阵调整权矩阵W;5 5)对对每每个个样样本本重重复复上上述述过过程程,直直到到对对整整个个样样本本集集来来说说,误差不超过规定范围。误差不超过规
12、定范围。2022/10/2626Widrow和和Hoff的写法的写法:Wij(t+1)=Wij(t)+(yj-aj(t)oi(t)也可以写成:也可以写成:Wij(t+1)=Wij(t)+Wij(t)Wij(t)(t)=joi(t)(t)j=yj-aj(t)(t)Grossberg的写法为:的写法为:Wij(t)=a(t)=ai i(t)(o(t)(oj j(t)-W(t)-Wijij(t)(t)更一般的更一般的Delta规则为:规则为:Wij(t)=g(ai(t),yj,oj(t),Wij(t)2022/10/26271概述概述 2基本基本BP算法算法 3算法的改进算法的改进 4算法的实现算法
13、的实现 5算法的理论基础算法的理论基础 6几个问题的讨论几个问题的讨论 2022/10/26281、BP算法的出算法的出现非循环多级网络的训练算法非循环多级网络的训练算法UCSDPDP小小组组的的Rumelhart、Hinton和和Williams1986年年独立地给出了独立地给出了BP算法清楚而简单的描述算法清楚而简单的描述1982年,年,Paker就完成了相似的工作就完成了相似的工作1974年,年,Werbos已提出了该方法已提出了该方法2、弱弱点点:训训练练速速度度非非常常慢慢、局局部部极极小小点点的的逃逃离离问问题题、算法不一定收敛。算法不一定收敛。3、优点:点:广泛的适应性和有效性。
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- BP 神经网络 理论基础 介绍
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内