第七章神经网络应用补优秀PPT.ppt
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_1.gif)
![资源得分’ title=](/images/score_05.gif)
《第七章神经网络应用补优秀PPT.ppt》由会员分享,可在线阅读,更多相关《第七章神经网络应用补优秀PPT.ppt(90页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第七章神经网络应用补现在学习的是第1页,共90页7.1 神经网络基本知识神经网络基本知识 7.1.1 人工神经网络模型人工神经网络模型 图 7-1 基本神经元模型 现在学习的是第2页,共90页神经元的输出可描述为 式中:f(Ai)表示神经元输入输出关系的函数,称为作用函数或传递函数,常用的作用函数有如图9-2所示的三种:阈值型、S型和分段线性型(伪线性型)。这样,就有三类神经元模型。现在学习的是第3页,共90页图 7-2 常见的作用函数形式(a)阈值型;(b)S型;(c)伪线性型 现在学习的是第4页,共90页 一、一、阈值型神经元阈值型神经元 阈值型神经元是一种最简单的神经元,由美国心理学家M
2、c.Culloch和数学家Pitls共同提出,因此,通常称为M-P模型。M-P模型神经元是二值型神经元,其输出状态取值为1或0,分别代表神经元的兴奋状态和抑制状态。其数学表达式为 对于M-P模型神经元,权值Wji可在(-1,1)区间连续取值。取负值表示抑制两神经元间的连接强度,取正值表示加强。现在学习的是第5页,共90页 二、二、S型神经元模型型神经元模型 这是常用的一种连续型神经元模型,输出值是在某一范围内连续取值的。输入输出特性多采用指数函数表示,用数学公式表示如下:S型作用函数反映了神经元的非线性输入输出特性。现在学习的是第6页,共90页 三、三、分段线性型分段线性型 神经元的输入输出特
3、性满足一定的区间线性关系,其输出可表示为 式中,C、AC表示常量。现在学习的是第7页,共90页7.1.2 神经网络结构神经网络结构一、一、分层网络分层网络 图 7-3 分层网络功能层次 现在学习的是第8页,共90页二、二、相互连接型结构相互连接型结构 图图 7-4 相互连接型网络相互连接型网络 现在学习的是第9页,共90页7.1.3 学习与记忆学习与记忆 一、一、神经网络的学习神经网络的学习 Hebb学习规则可以描述为:如果神经网络中某一神经元与另一直接与其相连的神经元同时处于兴奋状态,那么这两个神经元间的连接强度应该加强。用算法表达式表示为Wji(t+1)=Wji(t)+xi(t),xj(t
4、)式中:Wji(t+1)修正一次后的某一权值;常量,决定每次权值修正量,又称学习因子;xi(t)、xj(t)t时刻第i个、第j个神经元的状态。现在学习的是第10页,共90页 误差修正算法是神经网络学习中另一个更重要的方法。像感知机、BP网络学习均属此类。最基本的误差修正学习方法,即通常说的学习规则,可由如下四步来描述:(1)任选一组初始权值Wji(0)。(2)计算某一输入模式对应的实际输出与期望输出的误差。(3)更新权值Wji(t+1)=Wji(t)+dj-yj(t)xi(t)式中:学习因子;dj、yj第j个神经元的期望输出与实际输出;xj第j个神经元的输入。(4)返回步骤(2),直到对所有训
5、练模式、网络输出均满足误差要求为止。现在学习的是第11页,共90页 二、二、神经网络的记忆神经网络的记忆 神经网络记忆包含两层含义:信息的存储与回忆。网络通过学习将所获取的知识信息分布式存储在连接权的变化上,并具有相对稳定性。一般来讲,存储记忆需花较长时间,因此这种记忆称为长期记忆,而学习期间的记忆保持时间很短,称为短期记忆。7.1.4 神经网络的信息处理功能神经网络的信息处理功能 神经网络可以完成大量的信息处理任务,正因为这样,其应用涉及相当广泛的领域。归纳起来,神经网络的信息处理任务主要包括:现在学习的是第12页,共90页 一、一、数字上的映射逼近数字上的映射逼近 通过一组映射样本(x1,
6、y1),(x2,y2),(xn,yn),网络以自组织方式寻找输入、输出之间的映射关系:yi=f(xi)。二、二、联想记忆联想记忆 联想记忆是指实现模式完善、恢复相关模式的相互回忆等,典型的有如Hopfield网络等。现在学习的是第13页,共90页7.2 前前 向向 网网 络络 7.2.1 感知机感知机 图 9-5 基本感知机结构 现在学习的是第14页,共90页感知机的学习算法为 i=1,2,n 式中:为学习因子,在(0,1区间取值。期望输出与实际输出之差为 输入状态xi(k)=1 或 0 现在学习的是第15页,共90页7.2.2 BP网络网络 一、一、BP网络模型网络模型 图 9-6 一个三层
7、BP网络结构 现在学习的是第16页,共90页一般选用下列S形作用函数:且处理单元的输入、输出值可连续变化。BP网络模型实现了多层网络学习的设想。当给定网络的一个输入模式时,它由输入层单元传到隐层单元,经隐层单元逐层处理后再送到输出层单元,由输出层单元处理后产生一个输出模式,故称为前向传播。如果输出响应与期望输出模式有误差,且不满足要求,那么就转入误差后向传播,即将误差值沿连接通路逐层向后传送,并修正各层连接权值。(7-10)现在学习的是第17页,共90页二、二、学习算法学习算法 假设BP网络每层有N个处理单元,作用函数如(7-10)式所示,训练集包含M个样本模式对(xk,yk)。对第p个训练样
8、本(p=1,2,M)单元j的输入总和(即激活函数)记为apj,输出记为Opj,它的第i个输入(也即第i个神经元的输出)为Opi,则 现在学习的是第18页,共90页 如果任意设置网络初始权值,那么对每个输入模式p,网络输出与期望输出一般总有误差。定义网络误差为 式中,dpj表示对第p个输入模式输出单元j的期望输出。学习规则的实质是利用梯度最速下降法,使权值沿误差函数的负梯度方向改变。若权值Wji的变化量记为Wji,则 现在学习的是第19页,共90页而 这里,令 于是 这就是通常所说的学习规则。现在学习的是第20页,共90页当Opj表示输出层单元的输出时,其误差 现在学习的是第21页,共90页当O
9、pj表示隐单元输出时,其误差 现在学习的是第22页,共90页故 至此,BP算法权值修正公式可统一表示为 对于输出单元 对于隐单元(9-29)现在学习的是第23页,共90页 在实际应用中,考虑到学习过程的收敛性,通常为了使学习因子取值足够大,又不致于产生振荡,在权值修正公式(7-29)中再加一个势态项,得 式中,是常数,称势态因子,它决定上一次学习权值对本次权值更新的影响程度。一般地,BP网络学习算法步骤描述如下:(1)初始化网络及学习参数,如设置网络初始矩阵、学习因子、参数等;(2)提供训练样本,训练网络,直到满足要求;(3)前向传播过程:对给定训练模式输入,计算网络的输出模式,并与期望模式输
10、出比较,若有误差,则执行(4),否则,返回(2);现在学习的是第24页,共90页 (4)后向传播过程:计算同一层单元的误差pj。修正权值和阈值 阈值即为i=0时的连接权值。返回(2)。用网络的均方根值(RMS)误差来定量反映学习性能。其定义为 现在学习的是第25页,共90页三、三、竞争网络竞争网络 1.竞争学习网络结构竞争学习网络结构 图 7-7 两层竞争网络 现在学习的是第26页,共90页 2.竞争学习机理竞争学习机理 竞争单元的处理分为两步:首先计算每个单元输入的加权和;然后进行竞争,产生输出。对于第j个竞争单元,其输入总和为 当竞争层所有单元的输入总和计算完毕,便开始竞争。竞争层中具有最
11、高输入总和的单元被定为胜者,其输出状态为1,其它各单元输出状态为0。对于某一输入模式,当获胜单元确定后,便更新权值。也只有获胜单元权值才增加一个量,使得再次遇到该输入模式时,该单元有更大的输入总和。权值更新规则表示为 现在学习的是第27页,共90页7.3 反反 馈馈 网网 络络 7.3.1 Hopfield网络结构网络结构 图 7-8 HNN网络结构 现在学习的是第28页,共90页7.3.2 Hopfield神经网络神经网络A/D变换器变换器 图 7-9 对称式4位A/D转换网络 现在学习的是第29页,共90页图 7-10 迟滞现象 现在学习的是第30页,共90页图 7-11 非对称HNN网A
12、/D变换器 现在学习的是第31页,共90页图 7-12 采用非对称结构的A/D转换关系 现在学习的是第32页,共90页7.4 神经网络在智能传感器中的应用神经网络在智能传感器中的应用 7.4.1 纸浆浓度传感器非线性估计和动态标定的神经网络实现纸浆浓度传感器非线性估计和动态标定的神经网络实现一、问题提出一、问题提出 实际上,传感器在整个测量范围的非线性特性可用一幂级数多项式来描述:式中:y被测浓度;x传感器输出值;Wi(i=0,1,n)传感器的特性参数。(7-35)现在学习的是第33页,共90页 二、二、神经网络算法神经网络算法 对应每一个实际输入xi,可得到一个非线性数据集1,x,x2,x3
13、,,xn这些可作为神经网络的输入模式,现在学习的是第34页,共90页图 7-13 权值训练原理示意图 现在学习的是第35页,共90页 三、三、浓度传感器非线性估计及动态标定浓度传感器非线性估计及动态标定 浓度传感器的本质是非线性的。可将(7-35)式写成下列近似形式:式中:y被测浓度;f传感器的输出频率值;fmax传感器的最大输出频率值。因此可用f/fmax表示传感器的输出特征。现在学习的是第36页,共90页四、四、实例分析及结论实例分析及结论 传感器1:传感器2:传感器3:现在学习的是第37页,共90页图 7-14 拟合曲线 现在学习的是第38页,共90页表表 7-1 传感器输出及对应浓度估
14、计值传感器输出及对应浓度估计值 现在学习的是第39页,共90页7.4.2 神经网络在监测材料损伤中的应用神经网络在监测材料损伤中的应用 一、一、问题提出问题提出 具有传感、执行、信号处理、通信与控制等功能的结构称之为智能结构。这种结构不仅具有承受载荷的能力,还具有感知和响应内外环境的变化,实现自检测、自监控、自校正、自适应、自修复等功能。下面介绍利用人工神经网络和埋入偏振型光纤传感器阵列,实时适应监测复合材料损伤,并指示损伤位置的智能结构系统模型。现在学习的是第40页,共90页二、二、智能结构系统简介智能结构系统简介 图 7-15 智能结构系统图 现在学习的是第41页,共90页三、前向三、前向
15、BP网络处理器网络处理器 图 7-16 三层BP网络 现在学习的是第42页,共90页图 7-17 BP算法流程 现在学习的是第43页,共90页四、四、实验结果实验结果 表 7-2 BP网络学习样本数据 现在学习的是第44页,共90页表表7-3 在线仿真实验数及结果在线仿真实验数及结果 现在学习的是第45页,共90页7.4.3 神经网络滤波神经网络滤波 一、问题提出一、问题提出 通常,由信号发生器产生的正弦波或三角波信号都不同程度地含有噪声干扰信号。若我们将它作为精密测量供电信号或进行相位检测时,往往造成测量不精确等缺陷。消除噪声干扰的办法很多,下面提出一种采用神经网络学习记忆功能,实现对含噪正
16、弦波或三角波信号的复原,即消除噪声干扰。现在学习的是第46页,共90页 二、二、自适应线性函数的最小二乘法自适应线性函数的最小二乘法(LMS)学习算法学习算法 为了简单起见,我们以输入矢量为二维的情况作为示例来进行讨论。这时输入矢量X和权矢量W可以分别表示为 在采用线性函数的条件下,神经网络输出为(7-42)现在学习的是第47页,共90页权值修正公式为(k)为误差,即 式中,d(k)为期望输出;y(k)为实际输出。(7-43)现在学习的是第48页,共90页三、三、软件编程及说明软件编程及说明实现上述算法的软件编程如下(采用MATLAB语言):disp(*欢迎使用*)disp(请输入训练次数)T
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 第七 神经网络 应用 优秀 PPT
![提示](https://www.taowenge.com/images/bang_tan.gif)
限制150内