人工神经元网络控制论网络模型精选PPT.ppt
《人工神经元网络控制论网络模型精选PPT.ppt》由会员分享,可在线阅读,更多相关《人工神经元网络控制论网络模型精选PPT.ppt(102页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、人工神经元网络控制论网络模型人工神经元网络控制论网络模型1第1页,此课件共102页哦4.1 引言4.2 前向神经网络模型4.6 神经网络控制基础4.7 非线性动态系统的神经网络辨识4.8 神经网络控制的学习机制4.9 神经网络控制器的设计4.3 动态神经网络模型 4.10 单一神经元控制法目录目录2第2页,此课件共102页哦4.1 引言引言v人工神经网络就是模拟人脑细胞的分布式工作人工神经网络就是模拟人脑细胞的分布式工作特点和自组织功能,且能实现并行处理、自学特点和自组织功能,且能实现并行处理、自学习和非线性映射等能力的一种系统模型。习和非线性映射等能力的一种系统模型。3第3页,此课件共102
2、页哦发展历史发展历史v1943年,心理学家年,心理学家McCmloch和数学家和数学家Pitts合作提出形合作提出形式神经元数学模型式神经元数学模型(MP),揭开了神经科学理论的新时代。,揭开了神经科学理论的新时代。v1944年年Hebb提出了改变神经元连接强度的提出了改变神经元连接强度的Hebb规则。规则。v1957年年Rosenblatt首次引进了感知器概念(首次引进了感知器概念(Perceptron)。v1976年,年,Grossberg提出了自适应共振理论。提出了自适应共振理论。v1982年,美国加州工学院物理学家年,美国加州工学院物理学家Hopfield提出了提出了HNN模型,模型,
3、他引入了他引入了“计算能量函数计算能量函数”的概念,给出了网络的稳定性判据。的概念,给出了网络的稳定性判据。v1986年,年,Rumelhart等等PDP研究小组提出了多层前向传研究小组提出了多层前向传播网络的播网络的BP学习算法。学习算法。4第4页,此课件共102页哦主要内容主要内容5第5页,此课件共102页哦4.1 引言引言4.1.1 神经元模型4.1.2 神经网络的模型分类4.1.3 神经网络的学习算法 4.1.4 神经网络的泛化能力 6第6页,此课件共102页哦4.1.1 神经元模型神经元模型 v神经元模型是生物神经元的抽象和模拟。可看作多神经元模型是生物神经元的抽象和模拟。可看作多输
4、入输入/单输出的非线性器件单输出的非线性器件。ui 神经元的内部状态,i 阀值,xi 输入信号,j=1,2,n;wij 表示从单元uj 到单元ui 的连接权值;si外部输入信号7第7页,此课件共102页哦数学模型数学模型v通常直接假设通常直接假设yi=f(Neti)vf为激励函数为激励函数,有,有4种类型。种类型。8第8页,此课件共102页哦激励函数类型激励函数类型1v阈值型阈值型 9第9页,此课件共102页哦激励函数类型激励函数类型2v分段线性型分段线性型 10第10页,此课件共102页哦激励函数类型激励函数类型3v Sigmoid 函数型函数型11第11页,此课件共102页哦激励函数类型激
5、励函数类型4v Tan函数型函数型 12第12页,此课件共102页哦4.1 引言引言4.1.1 神经元模型4.1.2 神经网络的模型分类4.1.3 神经网络的学习算法 4.1.4 神经网络的泛化能力 13第13页,此课件共102页哦4.1.2 神经网络的模型分类神经网络的模型分类123414第14页,此课件共102页哦网络结构图网络结构图15第15页,此课件共102页哦4.1 引言引言4.1.1 神经元模型4.1.2 神经网络的模型分类4.1.3 神经网络的学习算法 4.1.4 神经网络的泛化能力 16第16页,此课件共102页哦4.1.3 神经网络的学习算法神经网络的学习算法 ab17第17
6、页,此课件共102页哦学习规则学习规则18第18页,此课件共102页哦相关学习相关学习v仅仅根据连接间的激活水平改变权系数。它常用仅仅根据连接间的激活水平改变权系数。它常用于自联想网络于自联想网络。v最常见的学习算法是最常见的学习算法是Hebb规则。规则。v表示学习步长表示学习步长19第19页,此课件共102页哦纠错学习纠错学习v有导师学习方法有导师学习方法,依赖关于输出节点的外部反,依赖关于输出节点的外部反馈改变权系数。它常用于感知器网络、多层前馈改变权系数。它常用于感知器网络、多层前向传播网络和向传播网络和Boltzmann机网络。其学习的方机网络。其学习的方法是梯度下降法。法是梯度下降法
7、。v最常见的学习算法有最常见的学习算法有规则、模拟退火学习规则。规则、模拟退火学习规则。20第20页,此课件共102页哦无导师学习无导师学习v学习表现为自适应实现输入空间的检测规则。学习表现为自适应实现输入空间的检测规则。它常用于它常用于ART、Kohonen自组织网络。自组织网络。v在这类学习规则中在这类学习规则中,关键不在于实际节点的输出关键不在于实际节点的输出怎样与外部的期望输出相一致,而在于调整参怎样与外部的期望输出相一致,而在于调整参数以反映观察事件的分布。数以反映观察事件的分布。v例如例如Winner-Take-All 学习规则学习规则。21第21页,此课件共102页哦4.1 引言
8、引言4.1.1 神经元模型4.1.2 神经网络的模型分类4.1.3 神经网络的学习算法 4.1.4 神经网络的泛化能力 22第22页,此课件共102页哦4.1.4 神经网络的泛化能力神经网络的泛化能力 v当输入矢量与样本输入矢量存在差异时,其神当输入矢量与样本输入矢量存在差异时,其神经网络的输出同样能够准确地呈现出应有的输经网络的输出同样能够准确地呈现出应有的输出。这种能力就称为神经网络的泛化能力。出。这种能力就称为神经网络的泛化能力。v在有导师指导下的学习中,泛化能力可以定义为训在有导师指导下的学习中,泛化能力可以定义为训练误差和测试误差之差。练误差和测试误差之差。v与输入矢量的个数、网络的
9、节点数和权值与训与输入矢量的个数、网络的节点数和权值与训练样本集数目之间存在密切的关系。练样本集数目之间存在密切的关系。23第23页,此课件共102页哦4.1 引言4.2 前向神经网络模型4.6 神经网络控制基础4.7 非线性动态系统的神经网络辨识4.8 神经网络控制的学习机制4.9 神经网络控制器的设计4.3 动态神经网络模型 4.10 单一神经元控制法目录目录24第24页,此课件共102页哦4.2 前向神经网络模型前向神经网络模型4.2.1 网络结构 4.2.2 多层传播网络的BP学习算法4.2.3 快速的BP改进算法25第25页,此课件共102页哦4.2.1 网络结构网络结构 单一神经元
10、12326第26页,此课件共102页哦单一神经元单一神经元 w0 为阈值,wj 决定第j个输入的突触权系数。27第27页,此课件共102页哦单层神经网络结构单层神经网络结构 x0=128第28页,此课件共102页哦多层神经网络结构多层神经网络结构 v以单隐含层网络为例:以单隐含层网络为例:Oj为隐含层的激励29第29页,此课件共102页哦4.2 前向神经网络模型前向神经网络模型4.2.1 网络结构 4.2.2 多层传播网络的BP学习算法4.2.3 快速的BP改进算法30第30页,此课件共102页哦4.2.2 多层传播网络的多层传播网络的BP学习算法学习算法v基本思想基本思想v单层网络的学习算法
11、单层网络的学习算法v多层前向网络学习算法多层前向网络学习算法31第31页,此课件共102页哦1.有导师学习的基本思想有导师学习的基本思想 v性能指标为性能指标为v()是一个正定的、可微的凸函数)是一个正定的、可微的凸函数,常取,常取 32第32页,此课件共102页哦2.单层网络的学习算法单层网络的学习算法 v激励函数为线性函数时,可通过最小二乘法来激励函数为线性函数时,可通过最小二乘法来 学学习。习。v激励函数为非线性函数时,可采用激励函数为非线性函数时,可采用Delta规则,规则,即梯度法,有即梯度法,有是学习因子 33第33页,此课件共102页哦4.多层前向网络学习算法多层前向网络学习算法
12、v针对多层前向网络针对多层前向网络v有导师学习有导师学习34第34页,此课件共102页哦网络模型网络模型v第第r1个隐含层:个隐含层:v输出层输出层35第35页,此课件共102页哦v采用梯度法:采用梯度法:v其中:其中:v定义广义误差定义广义误差:v可得:可得:BP学习算法学习算法36第36页,此课件共102页哦反向误差传播反向误差传播v输出层时,有:输出层时,有:v隐含层时,有:隐含层时,有:37第37页,此课件共102页哦例例3-1 v假设对于期望的输入。假设对于期望的输入。网络权系数的初始值见图。网络权系数的初始值见图。v试用试用BP算法训练此网络(本例中只给出一步迭算法训练此网络(本例
13、中只给出一步迭代学习过程)。代学习过程)。v这里,取神经元激励函数:这里,取神经元激励函数:学习步长为学习步长为38第38页,此课件共102页哦图图31539第39页,此课件共102页哦当前输出当前输出40第40页,此课件共102页哦计算广义误差计算广义误差 41第41页,此课件共102页哦连接权系数更新连接权系数更新 42第42页,此课件共102页哦学习流程学习流程43第43页,此课件共102页哦(1)初始化初始化v设置学习因子设置学习因子0。n较大时,收敛快,但易振荡。n较小时,反之。v最大容许误差最大容许误差Emax。用于判断学习是否结束。用于判断学习是否结束。v随机赋网络初始权值。随机
14、赋网络初始权值。一般选择比较小的随机数。一般选择比较小的随机数。44第44页,此课件共102页哦增量型学习累积型学习(2)学习方式学习方式45第45页,此课件共102页哦收敛性收敛性46第46页,此课件共102页哦(3)学习速率学习速率v激励函数,如用激励函数,如用Sigmoid函数,应增大斜率,减少函数,应增大斜率,减少饱和的情况。饱和的情况。v调节学习因子调节学习因子v增加增加Momentum项项 47第47页,此课件共102页哦例例3-2:非线性函数逼近非线性函数逼近v目标函数:目标函数:48第48页,此课件共102页哦学习设置学习设置v采用传统的采用传统的BP学习算法学习算法n激励函数
15、都为Sigmoid函数。n初始权系数阵由(0,1)之间的随机数组成。n学习步长=0.09。v学习样本取学习样本取20点,即:点,即:v校验样本取校验样本取30点,即:点,即:49第49页,此课件共102页哦两种两种MLP模型的学习效果模型的学习效果50第50页,此课件共102页哦4.2 前向神经网络模型前向神经网络模型4.2.1 网络结构 4.2.2 多层传播网络的BP学习算法4.2.3 快速的BP改进算法51第51页,此课件共102页哦1.快速快速BP算法算法vFahlman在在1988年首先提出年首先提出v当问题满足以下条件时:当问题满足以下条件时:n误差表面呈抛物面、极值点附近凹面向上;
16、n某一权系数的梯度变化与其它权系数变化无关。v可采取如下的更新公式可采取如下的更新公式52第52页,此课件共102页哦2.共轭梯度学习算法共轭梯度学习算法v共轭梯度算法是一种经典优化方法共轭梯度算法是一种经典优化方法v共轭梯度学习算法共轭梯度学习算法特点:使用二阶导数信息,但不计算特点:使用二阶导数信息,但不计算Hessian矩阵矩阵53第53页,此课件共102页哦目标函数的二阶近似目标函数的二阶近似v目标函数:目标函数:vTaylor展开展开:v其中:其中:54第54页,此课件共102页哦最佳权系数求取最佳权系数求取v函数取极小值时,最佳权系数可求解函数取极小值时,最佳权系数可求解获得。获得
17、。v由最优化理论可知,解决由最优化理论可知,解决H逆矩阵的计算问题逆矩阵的计算问题方法之一是利用共轭梯度来间接地构成方法之一是利用共轭梯度来间接地构成H的逆的逆矩阵值。矩阵值。55第55页,此课件共102页哦共轭方向共轭方向 v如果如果 diHdjT=0 对于所有的对于所有的 ij,i,j,=1,2,.,n。则称则称d1,d2,.,dn是是H共轭的。共轭的。v可见可见d1,d2,.,dn是线性无关的是线性无关的,因此可作为,因此可作为一组基。一组基。56第56页,此课件共102页哦最优矩阵的间接求解最优矩阵的间接求解v记记W*是极值点的权系数矢量,则有:是极值点的权系数矢量,则有:令令 Wk=
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 人工 神经元 网络 控制论 模型 精选 PPT
限制150内