BP神经网络.ppt
《BP神经网络.ppt》由会员分享,可在线阅读,更多相关《BP神经网络.ppt(79页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、穆学文 西安电子科技大学 12,7,132主要内容主要内容o 神经网络介绍神经网络介绍o BP误差反向传播神经网络误差反向传播神经网络o BP神经网络的加速算法神经网络的加速算法o 数值试验数值试验穆学文 西安电子科技大学 12,7,133神经网络介绍神经网络介绍o 基本概念基本概念o 应用领域应用领域o 研究方向研究方向o 基本功能基本功能o 神经元基本模型神经元基本模型o 典型的神经网络结构典型的神经网络结构穆学文 西安电子科技大学 12,7,134基本概念基本概念人工神经网络人工神经网络ANN(ANN(Artificial Neural Network) ),或简称神经网络,是人们借助数
2、学方法对人脑或简称神经网络,是人们借助数学方法对人脑的神经网络进行抽象,并建立的简化模型。我的神经网络进行抽象,并建立的简化模型。我们希望人工神经网络可以像人脑一样学习并完们希望人工神经网络可以像人脑一样学习并完成特定的任务。成特定的任务。T.Koholen的定义:的定义:“人工神经网络人工神经网络是由具有适是由具有适应性的简单单元组成的广泛并行互连的网络,应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物它的组织能够模拟生物神经系统对真实世界物体所作出的交互反应。体所作出的交互反应。”穆学文 西安电子科技大学 12,7,135神经网络研究的发展神经网络研究的发展
3、第一次热潮第一次热潮(40-60年代未年代未) 1943年年,美国心理学家美国心理学家W. McCulloch和数学家和数学家W. Pitts在在提出了一个简单的神经元模型,即提出了一个简单的神经元模型,即MP模型。模型。 1958年年,F. Rosenblatt等研制出了感知机等研制出了感知机(Perceptron)。低潮低潮(70-80年代初年代初): 1969年主要创始人年主要创始人Minsky从感知器的功能及局限性入手,从感知器的功能及局限性入手,在数学上进行了分析,证明了感知器不能实现在数学上进行了分析,证明了感知器不能实现XOR 逻辑逻辑函数问题,也不能实现其它的谓词函数。函数问题
4、,也不能实现其它的谓词函数。穆学文 西安电子科技大学 12,7,136神经网络研究的发展神经网络研究的发展( (续续) )第二次热潮第二次热潮 1982年年,美国物理学家美国物理学家J. J. Hopfield提出提出Hopfield模型模型,它它是一个互联的非线性动力学网络他解决问题的方法是一是一个互联的非线性动力学网络他解决问题的方法是一种反复运算的动态过程种反复运算的动态过程,这是符号逻辑处理方法所不具备这是符号逻辑处理方法所不具备的性质的性质. 1987年首届国际年首届国际ANN大会在圣地亚哥召开,国际大会在圣地亚哥召开,国际ANN联联合会成立,创办了多种合会成立,创办了多种ANN国际
5、刊物。国际刊物。 1990年年12月,北京召开首届学术会议。月,北京召开首届学术会议。穆学文 西安电子科技大学 12,7,137神经网络模型的分类神经网络模型的分类按照网络拓朴结构分类按照网络拓朴结构分类(神经元之间的连接方式神经元之间的连接方式) 层次型结构和互联型结构。层次型结构和互联型结构。 层次型结构的神经网络将神经元按功能和顺序的不同分层次型结构的神经网络将神经元按功能和顺序的不同分为输入层、中间层(隐层)、输出层。输入层各神经元为输入层、中间层(隐层)、输出层。输入层各神经元负责接收来自外界的输入信息,并传给中间各隐层神经负责接收来自外界的输入信息,并传给中间各隐层神经元;隐层是神
6、经网络的内部信息处理层,负责信息变换。元;隐层是神经网络的内部信息处理层,负责信息变换。根据需要可设计为一层或多层;最后一个隐层将信息传根据需要可设计为一层或多层;最后一个隐层将信息传递给输出层神经元经进一步处理后向外界输出信息处理递给输出层神经元经进一步处理后向外界输出信息处理结果。结果。 在互连型网络结构中,任意两个节点之间都可能存在连在互连型网络结构中,任意两个节点之间都可能存在连接路径,因此可根据网络中节点的连接程度将互连型网接路径,因此可根据网络中节点的连接程度将互连型网络细分为三种:全互连型、局部互连型和稀疏连接型。络细分为三种:全互连型、局部互连型和稀疏连接型。穆学文 西安电子科
7、技大学 12,7,138神经网络模型的分类神经网络模型的分类(续续)按照网络信息流向分类按照网络信息流向分类: 前馈型网络和反馈前馈型网络和反馈(递归递归)型网络。型网络。单纯前馈网络的结构与分层网络结构相同,前馈是因网络信息处单纯前馈网络的结构与分层网络结构相同,前馈是因网络信息处理的方向是从输入层到各隐层再到输出层逐层进行而得名的。前理的方向是从输入层到各隐层再到输出层逐层进行而得名的。前馈型网络中前一层的输出是下一层的输入,信息的处理具有逐层馈型网络中前一层的输出是下一层的输入,信息的处理具有逐层传递进行的方向性,一般不存在反馈环路。因此这类网络很容易传递进行的方向性,一般不存在反馈环路
8、。因此这类网络很容易串联起来建立多层前馈网络。典型串联起来建立多层前馈网络。典型:多层感知器多层感知器反馈型网络的结构与单层全互连结构网络相同。神经元的输出被反馈型网络的结构与单层全互连结构网络相同。神经元的输出被反馈至同层或前层神经元,信号能够从正向和反向流通。因此,反馈至同层或前层神经元,信号能够从正向和反向流通。因此,在反馈型网络中的所有节点都具有信息处理功能,而且每个节点在反馈型网络中的所有节点都具有信息处理功能,而且每个节点既可以从外界接受输入,同时又可以向外界输出。典型既可以从外界接受输入,同时又可以向外界输出。典型: Hopfield网络网络穆学文 西安电子科技大学 12,7,1
9、39神经网络模型的分类神经网络模型的分类(续续)按照训练规则按照训练规则(学习算法学习算法)分类分类: 监管的及非监管的。监管的及非监管的。 监管方式的训练规则需要监管方式的训练规则需要“教师教师”告诉他们特定的输入告诉他们特定的输入应该作出怎样的输出。然后训练规则会调整所有需要的应该作出怎样的输出。然后训练规则会调整所有需要的权重值(这在网络中是非常复杂的),而整个过程会重权重值(这在网络中是非常复杂的),而整个过程会重头开始直至数据可以被网络正确的分析出来。监管方式头开始直至数据可以被网络正确的分析出来。监管方式的训练模式包括有的训练模式包括有back-propagation及及delta
10、 rule(单层的单层的感知器感知器)。 非监管方式的规则无需教师,因为他们所产生的输出会非监管方式的规则无需教师,因为他们所产生的输出会被进一步评估。如被进一步评估。如:Hebb学习规则学习规则,竞争学习规则等竞争学习规则等 穆学文 西安电子科技大学 12,7,1310应用领域应用领域现在,神经网络的应用领域非常广阔,并且涉现在,神经网络的应用领域非常广阔,并且涉及了多种学科,它不仅可以应用于工程、科学及了多种学科,它不仅可以应用于工程、科学与数学领域,也可以应用于医学、商业、金融与数学领域,也可以应用于医学、商业、金融甚至是文学领域,吸引了来自不同专业的研究甚至是文学领域,吸引了来自不同专
11、业的研究者的关注,比如:工程学,物理学,神经学,者的关注,比如:工程学,物理学,神经学,心理学,医学,数学,计算机科学,化学和和心理学,医学,数学,计算机科学,化学和和经济学。经济学。穆学文 西安电子科技大学 12,7,1311研究方向研究方向o 神经生物学、神经解剖学神经生物学、神经解剖学o 神经网络相关的数学领域的研究与发展神经网络相关的数学领域的研究与发展o 神经网络应用的研究与发展神经网络应用的研究与发展o 神经网络硬件的研究与发展神经网络硬件的研究与发展o 新型神经网络模型的研究新型神经网络模型的研究穆学文 西安电子科技大学 12,7,1312基本功能基本功能o 分类与识别功能分类与
12、识别功能o 优化计算功能优化计算功能o 非线性映射功能非线性映射功能穆学文 西安电子科技大学 12,7,1313神经元基本模型神经元基本模型人工神经元模型人工神经元模型 穆学文 西安电子科技大学 12,7,1314模型由四个基本部分组成:模型由四个基本部分组成:(1)一组同突触权值相联系的突触,对突触输一组同突触权值相联系的突触,对突触输入的连续值是信号入的连续值是信号 ,的分量为,的分量为 , ,即,即 。因此,每个向量分。因此,每个向量分量量 输入给第输入给第j个突触,并通过突触权值个突触,并通过突触权值 与神经元连接,即与神经元连接,即 用突触权值用突触权值 相乘。相乘。神经元基本模型神
13、经元基本模型1nxxjx1,2,jn12,Tnx xxxjxjwjxjw穆学文 西安电子科技大学 12,7,1315神经元基本模型神经元基本模型(2)求和装置,将叠加所有传播到加法器的信号,求和装置,将叠加所有传播到加法器的信号,即每个输入与它相联系的突触权值相乘,然后即每个输入与它相联系的突触权值相乘,然后再相加求和。包括加法器的输出再相加求和。包括加法器的输出 在内的所有运在内的所有运算构成一个线性的组合器算构成一个线性的组合器。 穆学文 西安电子科技大学 12,7,1316神经元基本模型神经元基本模型(3)激活函数激活函数 ,可以是线性或非线性函数。由神,可以是线性或非线性函数。由神经网
14、络所需解决的特定问题决定选择某类激活经网络所需解决的特定问题决定选择某类激活函数。我们给出三类最典型的激励函数。函数。我们给出三类最典型的激励函数。 o 线性函数。线性函数。o 硬限幅函数。硬限幅函数。 o S形函数,或形函数,或sigmoid函数函数。 f 1()1netyf nete穆学文 西安电子科技大学 12,7,1317S形函数,或形函数,或sigmoid函数函数穆学文 西安电子科技大学 12,7,1318神经元基本模型神经元基本模型(4)阀值或偏置。)阀值或偏置。穆学文 西安电子科技大学 12,7,1319神经网络的适用性神经网络的适用性一般而言一般而言, ANN与经典计算方法相比
15、并非优越与经典计算方法相比并非优越, 只有当常规只有当常规方法解决不了或效果不佳时方法解决不了或效果不佳时ANN方法才能显示出其优越性。方法才能显示出其优越性。尤其对问题的机理不甚了解或不能用数学模型表示的系统尤其对问题的机理不甚了解或不能用数学模型表示的系统,如故障诊断、特征提取和预测等问题如故障诊断、特征提取和预测等问题,ANN往往是最有利的往往是最有利的工具。另一方面工具。另一方面, ANN对处理大量原始数据而不能用规则对处理大量原始数据而不能用规则或公式描述的问题或公式描述的问题, 表现出极大的灵活性和自适应性。表现出极大的灵活性和自适应性。穆学文 西安电子科技大学 12,7,1320
16、BP误差反向传播神经网络误差反向传播神经网络o BP网络介绍网络介绍o BP网络结构网络结构o 标准标准BP算法算法o BP网络的缺陷网络的缺陷o 算法改进算法改进穆学文 西安电子科技大学 12,7,1321BP网络介绍网络介绍Rumelhart,McClelland于于1985年提出了年提出了BP网络的网络的误差反向后传误差反向后传BP (Back Propagation)学习算法学习算法BP神经网络(神经网络(Error Back Propagation Network)是目前应用最为广泛和成功的神经网络之一。误差是目前应用最为广泛和成功的神经网络之一。误差反向传播算法(反向传播算法(BP
17、算法)的提出成功地解决了求算法)的提出成功地解决了求解非线性连续函数的多层前馈神经网络权重调整问解非线性连续函数的多层前馈神经网络权重调整问题。它是一种多层网络的题。它是一种多层网络的“逆推逆推”学习算法。学习算法。David Rumelhart J. McClelland 穆学文 西安电子科技大学 12,7,1322BP网络结构网络结构穆学文 西安电子科技大学 12,7,1323BP网络的标准学习算法网络的标准学习算法-算法思想算法思想o学习的类型:有导师学习学习的类型:有导师学习o核心思想:核心思想:n 将输出误差将输出误差以某种形式以某种形式通过隐层向输入层逐层反传通过隐层向输入层逐层反
18、传o学习的过程:学习的过程:n 信号的正向传播信号的正向传播 误差的反向传播误差的反向传播将误差分摊给各层的所有将误差分摊给各层的所有单元各层单元的误单元各层单元的误差信号差信号修正各单元权修正各单元权值值穆学文 西安电子科技大学 12,7,1324 BP网络的标准学习算法网络的标准学习算法o学习的过程学习的过程:n 神经网络在外界输入样本的刺激下不断改变网络的连神经网络在外界输入样本的刺激下不断改变网络的连接权值接权值,以使网络的输出不断地接近期望的输出。以使网络的输出不断地接近期望的输出。o学习的本质:学习的本质:n 对各连接权值的动态调整对各连接权值的动态调整o学习规则:学习规则:n 权
19、值调整规则,即在学习过程中网络中各神经元的连权值调整规则,即在学习过程中网络中各神经元的连接权变化所依据的一定的调整规则接权变化所依据的一定的调整规则。穆学文 西安电子科技大学 12,7,1325BP网络的标准学习算法网络的标准学习算法-学习过程学习过程o正向传播:正向传播:n 输入样本输入层各隐层输出层输入样本输入层各隐层输出层o判断是否转入反向传播阶段:判断是否转入反向传播阶段:n 若输出层的实际输出与期望的输出(教师信号)不符若输出层的实际输出与期望的输出(教师信号)不符o误差反传误差反传n 误差以某种形式在各层表示修正各层单元的权值误差以某种形式在各层表示修正各层单元的权值o网络输出的
20、误差减少到可接受的程度网络输出的误差减少到可接受的程度进行到预先设定的学习次数为止进行到预先设定的学习次数为止穆学文 西安电子科技大学 12,7,1326网络的标准学习算法网络的标准学习算法 o网络结构网络结构输入层输入层n个神经元个神经元,隐含层隐含层p个神经元个神经元,输出层输出层q个神经元个神经元o变量定义变量定义n输入向量输入向量;n隐含层输入向量;隐含层输入向量;n隐含层输出向量隐含层输出向量;n输出层输入向量输出层输入向量;n输出层输出向量输出层输出向量;n期望输出向量期望输出向量; 12,nxxxx12,phihihihi12,pho hohoho12,qyiyiyiyi12,q
21、yoyoyoyo12,qdddod穆学文 西安电子科技大学 12,7,1327BP网络的标准学习算法网络的标准学习算法n 输入层与中间层的连接权值输入层与中间层的连接权值:n 隐含层与输出层的连接权值隐含层与输出层的连接权值:n 隐含层各神经元的阈值隐含层各神经元的阈值:n 输出层各神经元的阈值输出层各神经元的阈值:n 样本数据个数样本数据个数:n 激活函数激活函数: n 误差函数:误差函数:ihw( )f howhb1,2,kmob211( )( )2qoooedkyo k穆学文 西安电子科技大学 12,7,1328BP网络的标准学习算法网络的标准学习算法o 第一步,网络初始化第一步,网络初
22、始化 n 给各连接权值分别赋一个区间(给各连接权值分别赋一个区间(-1,1)内的)内的随机数,设定误差函数随机数,设定误差函数e,给定计算精度值,给定计算精度值 和最大学习次数和最大学习次数M。o 第二步第二步,随机选取第随机选取第 个输入样本及对应期望个输入样本及对应期望输出输出 k12( )( ),( ),( )nkx kx kx kx12( )( ),( ),( )qkd kdkdkod穆学文 西安电子科技大学 12,7,1329BP网络的标准学习算法网络的标准学习算法o 第三步,计算隐含层各神经元的输入和输第三步,计算隐含层各神经元的输入和输出出1( )( )1,2,nhihihihi
23、kw x kbhp( )( )1,2,hhho kf hi khp1( )( )1,2,pohohohyi kw ho kboq( )( )1,2,ooyo kf yi koq穆学文 西安电子科技大学 12,7,1330BP网络的标准学习算法网络的标准学习算法o 第四步第四步,利用网络期望输出和实际输出,计算利用网络期望输出和实际输出,计算误差函数对输出层的各神经元的偏导数误差函数对输出层的各神经元的偏导数 。 ohoohoyieewyiw( )( )( )phohoohhhohow ho kbyi kho kww211( ( )( )2( ( )( )( )( ( )( )f( )( )qo
24、oooooooooood kyo ked kyo k yo kyiyid kyo kyi kk( )ok穆学文 西安电子科技大学 12,7,1331BP网络的标准学习算法网络的标准学习算法( )( )oohhoohoyieek ho kwyiw 1( )( )( )( )( )hihhihnihihhiiihihhi keewhi kww x kbhi kx kwwo 第五步,利用隐含层到输出层的连接权值、第五步,利用隐含层到输出层的连接权值、输出层的输出层的 和隐含层的输出计算误差函数和隐含层的输出计算误差函数对隐含层各神经元的偏导数对隐含层各神经元的偏导数 。 ( )hk( )ok穆学文
25、西安电子科技大学 12,7,1332BP网络的标准学习算法网络的标准学习算法21212111( )( ) )( )2( )( )( )1( )f( ) )( )2( )( )1( )f( ) )( )2( )( )qooohhhhqooohhhqpohohoohhhhdkyo kho kehi kho khi kdkyi kho kho khi kdkw ho kbho kho khi k11( )( )( )f ( )( )( )f ( )( )qhooohoohqohohhoho kdkyo kyi k whi kk whi kk 穆学文 西安电子科技大学 12,7,1333BP网络的标准
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- BP 神经网络
限制150内