神经网络基本理论王耀楠智能控制.ppt
《神经网络基本理论王耀楠智能控制.ppt》由会员分享,可在线阅读,更多相关《神经网络基本理论王耀楠智能控制.ppt(50页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第四章第四章 神经网络基本理论神经网络基本理论College of Electrical and Information Engineering,Hunan Univ.24.1 人工神经元模型人工神经元模型 人工神经元是对人或其它生物的神经元细胞的若干基本特性的抽象和模拟。人工神经元是对人或其它生物的神经元细胞的若干基本特性的抽象和模拟。n生物神经元模型生物神经元模型生物神经元主要由细胞体、树突和轴突组成,树突和轴突负责传入和传出生物神经元主要由细胞体、树突和轴突组成,树突和轴突负责传入和传出信息,兴奋性的冲动沿树突抵达细胞体,在细胞膜上累积形成兴奋性电位;信息,兴奋性的冲动沿树突抵达细胞体,
2、在细胞膜上累积形成兴奋性电位;相反,抑制性冲动到达细胞膜则形成抑制性电位。两种电位进行累加,若相反,抑制性冲动到达细胞膜则形成抑制性电位。两种电位进行累加,若代数和超过某个阈值,神经元将产生冲动。代数和超过某个阈值,神经元将产生冲动。College of Electrical and Information Engineering,Hunan Univ.34.1 人工神经元模型人工神经元模型n人工神经元模型人工神经元模型模仿生物神经元产生冲动的过程,可以建立一个典型的人工神经元数学模型模仿生物神经元产生冲动的过程,可以建立一个典型的人工神经元数学模型x1,xnT为输入向量,为输入向量,y为输出
3、,为输出,f()为激发函数,为激发函数,为阈值。为阈值。Wi为神经元与其为神经元与其它神经元的连接强度,也称权值。它神经元的连接强度,也称权值。College of Electrical and Information Engineering,Hunan Univ.44.1 人工神经元模型人工神经元模型常用的激发函数常用的激发函数f 的种类的种类:1)阈值型函数)阈值型函数College of Electrical and Information Engineering,Hunan Univ.54.1 人工神经元模型人工神经元模型2)饱和型函数)饱和型函数3)双曲函数)双曲函数College
4、of Electrical and Information Engineering,Hunan Univ.64.1 人工神经元模型人工神经元模型4)S型函数型函数5)高斯函数)高斯函数College of Electrical and Information Engineering,Hunan Univ.74.2 神经网络的定义和特点神经网络的定义和特点 神经网络系统是由大量的神经元,通过广泛地互相连接而形成的复杂网络系神经网络系统是由大量的神经元,通过广泛地互相连接而形成的复杂网络系统。统。n 定义定义n 特点特点(1)非线性映射逼近能力。非线性映射逼近能力。任意的连续非线性函数映射关系可由
5、多层神经网络以任意的连续非线性函数映射关系可由多层神经网络以任意精度加以逼近。任意精度加以逼近。(2)自适应性和自组织性自适应性和自组织性。神经元之间的连接具有多样性,各神经元之间的连接神经元之间的连接具有多样性,各神经元之间的连接强度具有可塑性,网络可以通过学习与训练进行自组织,以适应不同信息处理的要求。强度具有可塑性,网络可以通过学习与训练进行自组织,以适应不同信息处理的要求。(3)并行处理性。并行处理性。网络的各单元可以同时进行类似的处理过程,整个网络的信息处网络的各单元可以同时进行类似的处理过程,整个网络的信息处理方式是大规模并行的,可以大大加快对信息处理的速度。理方式是大规模并行的,
6、可以大大加快对信息处理的速度。(4)分布存储和容错性。分布存储和容错性。信息在神经网络内的存储按内容分布于许多神经元中,而信息在神经网络内的存储按内容分布于许多神经元中,而且每个神经元存储多种信息的部分内容。网络的每部分对信息的存储具有等势作用,且每个神经元存储多种信息的部分内容。网络的每部分对信息的存储具有等势作用,部分的信息丢失仍可以使完整的信息得到恢复,因而使网络具有容错性和联想记忆功部分的信息丢失仍可以使完整的信息得到恢复,因而使网络具有容错性和联想记忆功能。能。(5)便于集成实现和计算模拟。便于集成实现和计算模拟。神经网络在结构上是相同神经元的大规模组合,神经网络在结构上是相同神经元
7、的大规模组合,特别适合于用大规模集成电路实现。特别适合于用大规模集成电路实现。College of Electrical and Information Engineering,Hunan Univ.84.3 感知器模型感知器模型感知器感知器(Perceptron)是由美国学者是由美国学者F.Rosenblatt于于1957年提出的,它是一个具有年提出的,它是一个具有单层计算单元的神经网络,并由线性阈值元件组成。单层计算单元的神经网络,并由线性阈值元件组成。l 激发函数为阈值型函数,当其输入的加权和大于或等于阈值时,输出为激发函数为阈值型函数,当其输入的加权和大于或等于阈值时,输出为1,否,否
8、则为则为0或或-1。l它的权系它的权系W可变,这样它就可以学习。可变,这样它就可以学习。n感知器的结构感知器的结构College of Electrical and Information Engineering,Hunan Univ.94.3 感知器模型感知器模型n感知器的学习算法感知器的学习算法为为方便起方便起见见,将,将阈值阈值(它也同它也同样样需要学需要学习习)并入并入W中,令中,令Wn+1=-,X向量也相向量也相应应地增加一个分量地增加一个分量xn+1=1,则则学习算法:学习算法:给给定初始定初始值值:赋给赋给Wi(0)各一个各一个较较小的随机非零小的随机非零值值,这这里里Wi(t)
9、为为t时时刻第刻第i个个输输入的入的权权(1in),Wn+1(t)为为t时时刻的刻的阈值阈值;输输入一入一样样本本X=(xi,xn,1)和它的希望和它的希望输输出出d;计计算算实际输实际输出出 修正修正权权W:Wi(t+1)=Wi(t)+d-Y(t)xi,i=1,2,n+1 转转到到直到直到W对对一切一切样样本均本均稳稳定不定不变为变为止。止。College of Electrical and Information Engineering,Hunan Univ.104.3 感知器模型感知器模型根据某样本训练时,均方差随训练次数的收敛情况根据某样本训练时,均方差随训练次数的收敛情况Colleg
10、e of Electrical and Information Engineering,Hunan Univ.114.4 神经网络的构成和分类神经网络的构成和分类n 构成构成 l 从从Perceptron模型可以看出神经网络通过一组状态方程和一组学习方程加模型可以看出神经网络通过一组状态方程和一组学习方程加以描述。以描述。l 状态方程描述每个神经元的输入、输出、权值间的函数关系。状态方程描述每个神经元的输入、输出、权值间的函数关系。l 学习方程描述权值应该怎样修正。神经网络通过修正这些权值来进行学习,学习方程描述权值应该怎样修正。神经网络通过修正这些权值来进行学习,从而调整整个神经网络的输入输
11、出关系。从而调整整个神经网络的输入输出关系。n分类分类(1)从结构上划分)从结构上划分 通常所说的网络结构,主要是指它的联接方式。神经网络从拓扑结构通常所说的网络结构,主要是指它的联接方式。神经网络从拓扑结构上来说,主要分为层状和网状结构。上来说,主要分为层状和网状结构。College of Electrical and Information Engineering,Hunan Univ.124.4 神经网络的构成和分类神经网络的构成和分类层状结构层状结构:网络由若干层组成,每层中有一定数量的神经元,相邻层中神经元网络由若干层组成,每层中有一定数量的神经元,相邻层中神经元单向联接,一般同层内
12、神经元不能联接。单向联接,一般同层内神经元不能联接。前向网络:只有前后相邻两层之间神经元相互联接,各神经元之间没有反馈。每前向网络:只有前后相邻两层之间神经元相互联接,各神经元之间没有反馈。每个神经元从前一层接收输入,发送输出给下一层。个神经元从前一层接收输入,发送输出给下一层。College of Electrical and Information Engineering,Hunan Univ.134.4 神经网络的构成和分类神经网络的构成和分类网状结构:网络中任何两个神经元之间都可能双向联接。网状结构:网络中任何两个神经元之间都可能双向联接。反馈网络:从输出层到输入层有反馈,反馈网络:从
13、输出层到输入层有反馈,每一个神经元同时接收外来输入和来自其每一个神经元同时接收外来输入和来自其它神经元的反馈输入,其中包括神经元输它神经元的反馈输入,其中包括神经元输出信号引回自身输入的自环反馈。出信号引回自身输入的自环反馈。混合型网络:前向网络的同一层神经混合型网络:前向网络的同一层神经元之间有互联的网络。元之间有互联的网络。College of Electrical and Information Engineering,Hunan Univ.144.4 神经网络的构成和分类神经网络的构成和分类(2)从激发函数的类型上划分从激发函数的类型上划分 高斯基函数神经网络、小波基函数神经网络、样条
14、基函数神经网络等等高斯基函数神经网络、小波基函数神经网络、样条基函数神经网络等等(3)从网络的学习方式上划分从网络的学习方式上划分有导师学习神经网络有导师学习神经网络为神经网络提供样本数据,对网络进行训练,使网络的输入输出关系逼为神经网络提供样本数据,对网络进行训练,使网络的输入输出关系逼近样本数据的输入输出关系。近样本数据的输入输出关系。有导师学习神经网络有导师学习神经网络不为神经网络提供样本数据,学习过程中网络自动将输入数据的特征提不为神经网络提供样本数据,学习过程中网络自动将输入数据的特征提取出来。取出来。(4)从学习算法上来划分:)从学习算法上来划分:基于基于BP算法的网络、基于算法的
15、网络、基于Hebb算法的网络、基于竞争式学习算法的网络、算法的网络、基于竞争式学习算法的网络、基于遗传算法的网络。基于遗传算法的网络。College of Electrical and Information Engineering,Hunan Univ.154.4 多层前向多层前向BP神经网络神经网络 最早由最早由werbos在在1974年提出的,年提出的,1985年由年由Rumelhart再次进行发展。再次进行发展。n 多层前向神经网络的结构多层前向神经网络的结构多层前向神经网络由输入层、隐层(不少于多层前向神经网络由输入层、隐层(不少于1层)、输出层组成,信号沿输层)、输出层组成,信号沿
16、输入入输出的方向逐层传递。输出的方向逐层传递。College of Electrical and Information Engineering,Hunan Univ.164.4 多层前向多层前向BP神经网络神经网络沿信息的传播方向,给出网络的状态方程,用沿信息的传播方向,给出网络的状态方程,用Inj(i),Outj(i)表示第表示第i层第层第j个神经个神经元的输入和输出,则各层的输入输出关系可描述为:元的输入和输出,则各层的输入输出关系可描述为:第一层(输入层):将输入引入网络第一层(输入层):将输入引入网络 第二层(隐层)第二层(隐层)第三层(输出层)第三层(输出层)College of
17、Electrical and Information Engineering,Hunan Univ.174.4 多层前向多层前向BP神经网络神经网络n网络的学习网络的学习 学习的基本思想是:误差反传算法调整网络的权值,使网络的实际输出尽可学习的基本思想是:误差反传算法调整网络的权值,使网络的实际输出尽可能接近期望的输出。能接近期望的输出。假设有假设有M个样本个样本:将第将第k个样本个样本Xk输入网络,得到的网络输出为输入网络,得到的网络输出为 定义学习的目标函数为定义学习的目标函数为:College of Electrical and Information Engineering,Hunan
18、 Univ.184.4 多层前向多层前向BP神经网络神经网络为使目标函数最小,训练算法是:为使目标函数最小,训练算法是:令令 则则College of Electrical and Information Engineering,Hunan Univ.194.4 多层前向多层前向BP神经网络神经网络学习的步骤:学习的步骤:(1)依次取第)依次取第k组样本组样本,将,将Xk输入网络。输入网络。(2)依次计算)依次计算,如果,如果,退出。,退出。(3)计计算算(4)计计算算(5),修正,修正权值权值,返回(,返回(1)如果样本数少,则学习知识不够;如果样本多,则需计算更多的如果样本数少,则学习知识
19、不够;如果样本多,则需计算更多的dJk/dw,,训练,训练时间长。可采用随机学习法每次以样本中随机选取几个样本,计算时间长。可采用随机学习法每次以样本中随机选取几个样本,计算 dJk/dw,,调,调整权值。整权值。College of Electrical and Information Engineering,Hunan Univ.20例例4.1 多层前向多层前向BP网络训练网络训练训练样本训练样本SISO:SampleInput=0 0.1 0.2 0.3 0.4;SampleOutput=4 2 2 2 2;网络结构:网络结构:College of Electrical and Info
20、rmation Engineering,Hunan Univ.21网络输入输出关系:网络输入输出关系:需训练的量:需训练的量:College of Electrical and Information Engineering,Hunan Univ.22训练算法:训练算法:College of Electrical and Information Engineering,Hunan Univ.23训练初始参数:训练初始参数:W1=rand(1,5);W2=rand(1,5);theta=rand(1,5);beta=rand(1,5);LearningRate1=0.2;LearningRate
21、2=0.4;LearningRate3=0.2;LearningRate4=0.2;College of Electrical and Information Engineering,Hunan Univ.24训练后参数:训练后参数:W1-0.4059 8.5182 -0.5994 -0.1153 -1.1916;W2=0.6245 2.8382 0.6632 0.5783 3.5775;Beta=1.6219 -4.9403 1.6041 1.5145 -0.3858;Theta=1.5832 0.1900 1.5406 1.6665 -0.1441;College of Electrica
22、l and Information Engineering,Hunan Univ.25训练训练1000次目标函数的变化曲线:次目标函数的变化曲线:College of Electrical and Information Engineering,Hunan Univ.26训练结束后神经网络的输出与样本的拟和情况训练结束后神经网络的输出与样本的拟和情况College of Electrical and Information Engineering,Hunan Univ.274.4 多层前向多层前向BP神经网络神经网络n前向网络进一步需研究的问题前向网络进一步需研究的问题 局部最优问题,(网络初
23、值选取不恰当)。局部最优问题,(网络初值选取不恰当)。学习算法收敛速度慢,学习算法收敛速度慢,Sigmaid函数本身存在无穷多闪导数,而函数本身存在无穷多闪导数,而BP算法只用了一次导数,致使收敛速度慢。算法只用了一次导数,致使收敛速度慢。网络的运行是单向传播,没有反馈,是一个非浅性映射,而不是非网络的运行是单向传播,没有反馈,是一个非浅性映射,而不是非浅性动力系统。浅性动力系统。网络隐层节点个数和初始权值的选取,尚无理论指导。网络隐层节点个数和初始权值的选取,尚无理论指导。College of Electrical and Information Engineering,Hunan Univ
24、.284.5 大脑自组织神经网络大脑自组织神经网络 是一种无导师学习的网络是一种无导师学习的网络脑神经科学研究表明:脑神经科学研究表明:传递感觉的神经元排列是按某种规律有序进行的,这种传递感觉的神经元排列是按某种规律有序进行的,这种排列往往反映所感受的外部刺激的某些物理特征。排列往往反映所感受的外部刺激的某些物理特征。大脑自组织神经网络在接受外界输入时,将会分成不同的区域,不同的区域对大脑自组织神经网络在接受外界输入时,将会分成不同的区域,不同的区域对不同的模式具有不同的响应特征,即不同的神经元以最佳方式响应不同性质的不同的模式具有不同的响应特征,即不同的神经元以最佳方式响应不同性质的信号激励
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 神经网络 基本理论 王耀楠 智能 控制
限制150内