第三章 前馈神经网络模型精选文档.ppt
《第三章 前馈神经网络模型精选文档.ppt》由会员分享,可在线阅读,更多相关《第三章 前馈神经网络模型精选文档.ppt(91页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第三章 前馈神经网络模型本讲稿第一页,共九十一页v前馈神经网络:由一层或多层非线性处理单元组成。相邻层之间通过突触权阵连接起来。由于前一层的输出作为下一层的输入,因此此类神经网络为前向神经网络。在前向神经网络结构中输入输出之间包含着一层或多层隐含层。前向神经网络可以看成是一种一组输入模式到一组输出模式的系统变换,这种变换通过对某一给定的输入样本相应的输出样本集的训练而得到,为了实现这一行为,网络的权系数在某种学习规则下进行自适应学习,也就是有导师指导学习。本讲稿第二页,共九十一页内容提要l感知器l多层感知器l自适应线性元模型lBP算法本讲稿第三页,共九十一页第一节感知器本讲稿第四页,共九十一页
2、线性阈值单元l线性阈值单元是前向网络(又称前馈网络)中最基本的计算单元,它具有n个输入(x1,x2,xn),一个输出y,n个连接权值(w1,w2,wn),且xiwiy本讲稿第五页,共九十一页感知器简介l 1958年,美国心理学家Frank Rosenblatt提出一种具有单层计算单元的神经网络,称为Perceptron,即感知器。感知器是模拟人的视觉接受环境信息,并由神经冲动进行信息传递的层次型神经网络。感知器研究中首次提出了自组织、自学习的思想,而且对所能解决的问题存在着收敛算法,并能从数学上严格证明,因而对神经网络研究起了重要推动作用。l 感知器的结构与功能都非常简单,以至于在解决实际问题
3、时很少采用,但由于它在神经网络研究中具有重要意义,是研究其它网络的基础,而且较易学习和理解,适合于作为学习神经网络的起点。l 本讲稿第六页,共九十一页感知器模型结构l感知器的模型结构如图所示。感l知器是指只有一层处理单元的感l知器,如果包括输入层在内,应l为两层。图中输入层也称为感知l层,有n个神经元节点,这些节点l只负责引入外部信息,自身无信l息处理能力,每个节点接收一个l输入信号,n个输入信号构成输l入列向量X。输出层也称为处理层,有m个神经元节点,每个节点均具有信息处理能力,m个节点向外部输出处理信息,构成输出列向量O。两层之间的连接权值用权值列向量Wj表示,m个权向量构成单层感知器的权
4、值矩阵W。3个列向量分别表示为:本讲稿第七页,共九十一页感知器模型结构 j=1,2,m 本讲稿第八页,共九十一页感知器模型结构 本讲稿第九页,共九十一页感知器的功能 一个最简单的单计算节点感知器具有分类功能。其一个最简单的单计算节点感知器具有分类功能。其分类原理是将分类知识存储于感知器的权向量(包含了分类原理是将分类知识存储于感知器的权向量(包含了阈值)中,由权向量确定的分类判决界面将输入模式分阈值)中,由权向量确定的分类判决界面将输入模式分为两类。为两类。本讲稿第十页,共九十一页感知器的功能(1)设输入向量设输入向量X=(x1,x2)T输出:输出:则由方程则由方程 w1jx1+w2jx2-T
5、j=0 确定了二维平面上的一条分界线。确定了二维平面上的一条分界线。ojx1-1x2本讲稿第十一页,共九十一页感知器的功能 w1j x1+w2j x2 Tj=0w1j x1=Tj -w2j x2x1=(Tj-w2j x2)/w1j =-(w2j/w1j)x2+Tj/w1j =a x2+c 本讲稿第十二页,共九十一页感知器的功能(2)设输入向量设输入向量X=(x1,x2,x3)T输出:输出:则由方程则由方程 w1jx1+w2jx2+w3j Tj=0 确定了三维空间上的一个分界平面。确定了三维空间上的一个分界平面。x2ojx1x3-1本讲稿第十三页,共九十一页感知器的功能 w1j x1+w2j x
6、2+w3j x3 Tj=0 x1=a x2+b x3+c 本讲稿第十四页,共九十一页感知器的功能(3)设输入向量设输入向量X=(x1,x2,,xn)T则由方程则由方程 w1jx1+w2jx2+wnj Tj=0 (3.6)确定了确定了n维空间上的一个分界平面。维空间上的一个分界平面。输出:输出:w1jx1+w2jx2+wnj Tj=0 (3.5)本讲稿第十五页,共九十一页例一 用感知器实现逻辑“与”功能 x1x2y000010100111逻辑逻辑“与与”真值真值表表本讲稿第十六页,共九十一页例一 用感知器实现逻辑“与”功能 感知器结构感知器结构wix1+w2x2-T=0 0.5x1+0.5x2-
7、0.75=0本讲稿第十七页,共九十一页例二 用感知器实现逻辑“或”功能 x1x2y000011101111逻辑逻辑“或或”真值表真值表本讲稿第十八页,共九十一页例二 用感知器实现逻辑“或”功能 感知器结构感知器结构wix1+w2x2-T=0 x1+x2-0.5=0本讲稿第十九页,共九十一页思考 l分界线的方程是什么?l感知器的模型如何表示?数学表达式?本讲稿第二十页,共九十一页感知器的局限性 lRosenblatt已经证明,如果两类模式在分布空间中可以找到一个超平面将它们分开,那么感知器的学习过程就一定会收敛。否则判定边界就会振荡不休,永远不会稳定,这也正是单层感知器所无法克服的缺陷,所以它连
8、最简单的异或(XOR)问题也解决不了。“异或异或”的真值表的真值表x1x2y000011101110本讲稿第二十一页,共九十一页感知器的局限性 l关键问题就是求本讲稿第二十二页,共九十一页感知器的学习 式中,当实际输出与期望值相同时,权值不需要调整。感知器式中,当实际输出与期望值相同时,权值不需要调整。感知器学习规则代表一种有导师学习。学习规则代表一种有导师学习。本讲稿第二十三页,共九十一页感知器的学习规则 感知器学习规则的训练步骤:感知器学习规则的训练步骤:(1)对各权值对各权值w0j(0),w1j(0),wnj(0),j=1,2,m (m为计算层的节点数)赋予较小的非零随机数;为计算层的节
9、点数)赋予较小的非零随机数;(2)输入样本对输入样本对Xp,dp,其中,其中Xp=(-1,x1p,x2p,x,xn np p),dp为期望的输出向量(教师信号),上标为期望的输出向量(教师信号),上标p代表代表 样本对的模式序号,设样本集中的样本总数为样本对的模式序号,设样本集中的样本总数为P,则则p=1,2,P,P;本讲稿第二十四页,共九十一页感知器的学习规则(3)计算各节点的实际输出计算各节点的实际输出ojp(t)=sgnWjT(t)Xp,j=1,2,.,m;(4)调整各节点对应的权值,调整各节点对应的权值,Wj(t+1)=Wj(t)+djp-ojp(t)Xp,j=1,2,m,其中其中为学
10、习率,用于控制调整速度,太大为学习率,用于控制调整速度,太大会影响训练的稳定性,太小则使训练的收敛速度变慢,会影响训练的稳定性,太小则使训练的收敛速度变慢,一般取一般取0 011;(5)返回到步骤返回到步骤(2)输入下一对样本,周而复始直到对所有输入下一对样本,周而复始直到对所有 样本,感知器的实际输出与期望输出相等。样本,感知器的实际输出与期望输出相等。本讲稿第二十五页,共九十一页本讲稿第二十六页,共九十一页本讲稿第二十七页,共九十一页本讲稿第二十八页,共九十一页本讲稿第二十九页,共九十一页本讲稿第三十页,共九十一页感知器的学习规则的训练步骤 1.初始化:权值初始化为一个较小的随机非零值。2
11、.将一模式送入输入神经元,并给出理想输出值。3.计算神经网络模型的实际输出:4.调节权值:5.转2,直到这次迭代完所给定的所有输入样本。6.计算结束判据。条件符合,结束;否则转2。本讲稿第三十一页,共九十一页感知器的学习 例三例三 单计算节点感知器,单计算节点感知器,3个输入。给定个输入。给定3对训练样对训练样本对如下:本对如下:X1=(-1,1,-2,0)T d1=1X2=(-1,0,1.5,-0.5)T d2=1X3=(-1,-1,1,0.5)T d3=1 设初始权向量设初始权向量W(0)=(0.5,1,-1,0)T,=0.1=0.1。注意,输入向量注意,输入向量中第一个分量中第一个分量x
12、0恒等于恒等于-1,权向量中第一个分量为阈值,试根,权向量中第一个分量为阈值,试根据以上学习规则训练该感知器。据以上学习规则训练该感知器。本讲稿第三十二页,共九十一页感知器的学习 解:第一步解:第一步 输入输入X1,得得 WT(0)X1=(0.5,1,-1,0)(-1,1,-2,0)T=2.5 o1(0)=sgn(2.5)=1 W(1)=W(0)+d1-o1(0)X1 =(0.5,1,-1,0)T+0.1(-1-1)(-1,1,-2,0)T =(0.7,0.8,-0.6,0)T本讲稿第三十三页,共九十一页感知器的学习 第二步第二步 输入输入X2,得,得 WT(1)X2=(0.7,0.8,-0.
13、6,0)(-1,0,1.5,-0.5)T=-1.6 o2(1)=sgn(-1.6)=-1 W(2)=W(1)+d2-o2(1)X2 =(0.7,0.8,-0.6,0)T+0.1-1-(-1)(-1,0,1.5,-0.5)T =(0.7,0.8,-0.6,0)T由于由于d2=o2(1),所以,所以W(2)=W(1)。本讲稿第三十四页,共九十一页感知器的学习 第三步第三步 输入输入X3,得,得 WT(2)X3=(0.7,0.8,-0.6,0)(-1,-1,1,0.5)T=-2.1 O3(2)=sgn(-2.1=-1W(3)=W(2)+d3-o3(2)X3 =(0.7,0.8,-0.6,0)T+0.
14、11-(-1)(-1,-1,1,0.5)T =(0.5,0.6,-0.4,0.1)T第四步第四步 返回到第一步,继续训练直到返回到第一步,继续训练直到dp-op=0,p=1,2,3。本讲稿第三十五页,共九十一页第二节多层感知器本讲稿第三十六页,共九十一页多层感知器简介l多层感知器(Multilayer Perceptron)是一种在输入层与输出层之间含有一层或多层隐含神经元的具有正向传播机制的神经网络模型。l多层感知器克服了单层感知器的许多局限,单层感知器只能实现线性可分问题和简单布尔函数,多层感知器可以实现线性不可分问题和任意布尔函数。本讲稿第三十七页,共九十一页多层感知器的结构 输入层隐含
15、层输出层本讲稿第三十八页,共九十一页多层感知器的分类能力l一个单层感知器构成一个半平面判定区域,一个两层感知器可以构成任意无边界的空间区域,这些判定区域有的是凸多边形,有的是无边界的凹区域。凸区域是多层感知器中第一层各个神经元所构成的半平面判定区域(即判定区域)相交而成。本讲稿第三十九页,共九十一页多层感知器性能等价问题l第一层中的神经元就像一单层感知器,所形成的凸区域的边数最多和第一层神经元个数一样多。一个三层感知机能够形成任意复杂的判定区域,也能把那些相互渗透的区域分开。本讲稿第四十页,共九十一页例子一l1、用单层感知器实现简单逻辑运算。(1)(与)等价于 ,即 (2)(或)等价于 ,即
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第三章 前馈神经网络模型精选文档 第三 神经网络 模型 精选 文档
限制150内