机械故障诊断学钟秉林第7章神经网络诊断原理课件.ppt
《机械故障诊断学钟秉林第7章神经网络诊断原理课件.ppt》由会员分享,可在线阅读,更多相关《机械故障诊断学钟秉林第7章神经网络诊断原理课件.ppt(122页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第7章 神经网络诊断原理l 人工神经网络的拓扑结构及其学习规则l 多层前向神经网络模型及BP算法l 径向基函数(RBF)网络及其学习算法l 模糊神经网络原理机械故障诊断理论与方法第2篇 基于人工智能的故障诊断技术 2023/1/51内容安排一、概述人工神经网络(Artificial Neural Networks,简称ANN),是近年来得到迅速发展的一个前沿课题。ANN是在现代神经生理学和心理学的研究基础上,模仿人的大脑神经元结构特性而建立的一种非线性动力学非线性动力学网络系统,它由大量的简单的非线性处理单元(类似人脑的神经元)高度并联并联、互互联联而成,具有对人脑某些基本特性简单的数学模拟能
2、力。2023/1/52神经网络由于其大规模并行处理、容错性、自组织和自适应能力和联想功能强等特点,已成为解决很多问题的有力工具。如汽车自驾系统、图像处理(如汽车自驾系统、图像处理(人脸识别)、文字识别)、文字识别(手写识别)、语音识别、故障诊断等。)、语音识别、故障诊断等。与传统计算机的比较 传统计算机神经网络设计算法和/或求解规则,编制软件 无需算法或求解规则,软件编制任务相对简单 指令串行执行 高度并行处理 不能解决形象思维问题,如感知、视觉等 易于实现感知和视觉等形象思维问题 脆弱鲁棒性(Robust)、容错性强,自适应能力差 自适应性强 强有力的数字和逻辑运算能力,计算精度高 可以处理
3、模糊的、概率的、含噪的或不相容的信息 2023/1/53一、概述 目前,已经提出的神经网络模型大约有几十种,较为著名著名的有:p贺浦费特模型-Hopfieldp多层感知器(MultiLayer Perceptron,MLP)模型-Rumelhartp自适应共振理论(Adaptive Resonance Theory,ART)-Grossberg 和 Carpententp玻尔兹曼(Boltzmann)机-Hintonp自组织特征映射(Self-Rrganizing Map,SOM)模型-Kohonenp双向联想记忆模型-Kosko2023/1/54一、概述人工神经网络在故障诊断领域的应用主要集
4、中在如下三个方面:p一是从模式识别角度应用神经网络作为分类器进行故障诊断;p二是从预测角度应用神经网络作为动态预测模型进行故障预测;p三是从知识处理角度建立基于神经网络的诊断专家系统。2023/1/55本章首先介绍神经网络的基本原理,然后着重从第一方面出发介绍几类在故障诊断领域应用较为广泛的神经网络模型。人工神经网络发展简史人工神经网络发展简史p最早的研究可以追溯到20世纪40年代。1943年,心理学家McCulloch和数学家Pitts合作提出了形式神经元的数学模型。这一模型一般被简称M-P神经网络模型,至今仍在应用,可以说,人工神经网络的研究时代,就由此开始了就由此开始了。p1949年,心
5、理学家Hebb提出神经系统的学习规则,为神经网络的学习算法奠定了基础。现在,这个规则被称为HebbHebb规则规则,许多人工神经网络的学习还遵循这一规则。一、概述2023/1/56p1957年,F.Rosenblatt提出“感知器”(Perceptron)模型,第一次把神经网络的研究从纯理论的探讨付诸工程实践工程实践,掀起了人工神经网络研究的第一次高潮。p20世纪60年代以后,数字计算机的发展达到全盛时期,人们误误以为数字计算机可以解决人工智能、专家系统、模式识别问题,而放松放松了对“感知器”的研究。于是,从20世纪60年代末期起,人工神经网络的研究进入了低潮。一、概述2023/1/57p19
6、82年,美国加州工学院物理学家Hopfield提出了离散的离散的神经网络模型,标志着神经网络的研究又进入了一个新高潮。1984年,Hopfield又提出连续连续神经网络模型,开拓了计算机应用神经网络的新途径。p1986年,Rumelhart和Meclelland提出多层网络的误差反传(Back Propagation)学习算法,简称BPBP算法算法。BP算法是目前最为重要、应用最广的人工神经网络算法之一。一、概述p自20世纪80年代中期以来,世界上许多国家掀起了神经网络的研究热潮,可以说神经网络已成为国际上的一个研究热点。2023/1/58二、人工神经网络的拓扑结构及其学习规则1.生物神经元与
7、人工神经元模型 生物神经元(NU)p神经元是大脑处理信息的基本单元;p人脑约由101l-1012个神经元组成,其中,每个神经元约与104-105个神经元通过突触突触联接,形成极为错纵复杂而且又灵活多变的神经网络;p神经元以细胞体为主体,由许多向周围延伸的不规则树枝状纤维构成的神经细胞,其形状很像一棵枯树的枝干;p主要由细胞体细胞体、树突树突、轴突轴突和突触突触(Synapse,又称神经键)组成。2023/1/59二、人工神经网络的拓扑结构及其学习规则2023/1/510p细胞体细胞体对这些输入信号进行整 合并进行阈值处理;p树突树突是树状的神经纤维接收网络,它将电信号传送到细胞体;p轴突轴突是
8、单根长纤维,它把细胞 体的输出信号导向其他神经元;p一个神经细胞的轴突和另一个 神经细胞树突的结合点称为突触突触 兴奋型、抑制型,膜外为正、膜内为负神经元的神经元的排列排列和突触的和突触的强度强度(由复杂的化学过程决定由复杂的化学过程决定)确立了确立了神经网络的功能。神经网络的功能。二、人工神经网络的拓扑结构及其学习规则2023/1/511p生物学研究表明一些神经结构是与生俱来的,而其他部分则是在学习的过程中形成的。p在学习的过程中,可能会产生一些新新的连接,也可能会使以前的一些连接消失消失。这个过程在生命早期最为显著。二、人工神经网络的拓扑结构及其学习规则2023/1/512p 突触的信息处
9、理p生物神经元传递信息的过程为多输入、单输出;p神经元各组成部分的功能来看,信息的处理与传递主要发生在突触突触附近;p当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学物质;p突触有两种类型,兴奋性突触和抑制性突触。前者产生正突触后电位,后者产生负突触后电位。p 生物神经元的主要功能与特点 时空整合能力:对不同时间通过同一突触传入的神经冲动(激励),具有时间整合功能;对同一时间通过不同突触传入的神经冲动,具有空间整合功能。兴奋与抑制状态:传入神经冲动的时空整合结果时空整合结果,使神经元膜电位升高膜电位升高,超过超过神经元动作电位
10、的阀值阀值(约约40mV)时,神经元进入兴奋状态;传入神经冲动的是时空整合结果时空整合结果,使神经元膜电位低于电位低于电位阀值之下阀值之下,神经元进入抑制状态。脉冲与电位转换 突触延时和不应期:一般为0.3lms 学习、遗忘和疲劳:存在学习、遗忘或疲劳(饱和)效应二、人工神经网络的拓扑结构及其学习规则2023/1/513可塑性:突触传递信息的强度是可变的,即具有学习功能 人工神经元二、人工神经网络的拓扑结构及其学习规则2023/1/514 1943,神经生理学家 McCulloch 和数学家 Pitts 基于早期神经元学说,归纳总结了生物神经元的基本特性,建立了具有逻辑演算功能的神经元模型以及
11、这些人工神经元互联形成的人工神经网络,即所谓的 McCulloch-Pitts 模型,MP模型。MP模型是世界上第一个神经计算模型,即人人工工神经系统神经系统。令:X=(-1,x1,x2,xn)T Wj=(j,wj 1,wj 2,wjn)T二、人工神经网络的拓扑结构及其学习规则2023/1/515典型人工神经元结构:n 作用函数:n 求和操作:图中表示求和,j为阀值x1,x2,,xn为输入,即其他神经元的轴突输出;n为输入数目;j1,j2,jn为其他n个神经元与神经元j的突触连接强度,通常称为权重,ji可正可负,表示为兴奋型突触和抑制型突;f(.)通常为一非线性函数,称为神经的激活函数或转移函
12、数;sj为神经元的求和输出,常称为神经元的激活水平,yj为输出。二、人工神经网络的拓扑结构及其学习规则2023/1/516 MP模型 f(x)是作用函数是作用函数(Activation Function),也称,也称激发函数激发函数。MP神经元模型中的作用函数为神经元模型中的作用函数为单位阶跃函数单位阶跃函数:其表达式为:其表达式为:可知当神经元i的输入信号加加权和权和超过阈值时,输出为“1”,即“兴奋”状态;反之输出为“0”,是“抑制”状态。二、人工神经网络的拓扑结构及其学习规则2023/1/517例例1 实现逻辑函数“与门”(AND gate)运算。1 真,0假二、人工神经网络的拓扑结构及
13、其学习规则2023/1/518二、人工神经网络的拓扑结构及其学习规则2023/1/519常见的神经元激发函数 MP 神经元模型是人工神经元模型的基础,也是神经网络理论的基础。在神经元模型中,作用函数除了单位阶跃函数之外,还有其它形式。不同的作用函数,可构成不同的神经元模型神经元模型。激发函数的基本作用控制输入对输出的激活激活作用对输入、输出进行函数转换转换将可能无限域的输入变换成指定的有限范围内的输出 二、人工神经网络的拓扑结构及其学习规则2023/1/520I 对称型对称型SigmoidSigmoid函数函数 或或二、人工神经网络的拓扑结构及其学习规则2023/1/521II 非对称型非对称
14、型SigmoidSigmoid函数函数或或二、人工神经网络的拓扑结构及其学习规则2023/1/522III 对称型阶跃函数对称型阶跃函数采用阶跃作用函数的神经元,称为阈值逻辑单元。采用阶跃作用函数的神经元,称为阈值逻辑单元。二、人工神经网络的拓扑结构及其学习规则2023/1/523IV 线性函数线性函数(1 1)线性作用函数:输出等于输入,即)线性作用函数:输出等于输入,即 (2 2)饱和线性作用函数)饱和线性作用函数 (3 3)对称饱和线性作用函数)对称饱和线性作用函数 二、人工神经网络的拓扑结构及其学习规则2023/1/524V 高斯函数高斯函数 反映出高斯函数的宽度反映出高斯函数的宽度
15、0 xf(x)0 xf(x)10 xf(x)1-1二、人工神经网络的拓扑结构及其学习规则2023/1/525高斯函数型 双曲正切型 Sigmoid型 斜坡型 0 xf(x)1-1-aa0.51f(x)0 x1f(x)0 x-1-50500.10.20.30.40.50.60.70.80.911x0 cf(x)二、人工神经网络的拓扑结构及其学习规则2023/1/5262.人工神经网络的拓扑结构二、人工神经网络的拓扑结构及其学习规则2023/1/527p众所周知,神经网络强大的计算功能是通过神经元的互连而达到的。根据神经元的拓扑结构形式不同,神经网络可分成以下两两大类:p目前,神经网络模型的种类比
16、较多,已有近4040余种神经网络模型,其中典型的有BP网络、Hopfield网络、CMAC小脑模型、ART自适应共振理论和Blotzman机网络等q 不含反馈的前向网络 2.人工神经网络的拓扑结构二、人工神经网络的拓扑结构及其学习规则2023/1/528p神经元分层排列,顺序连接。由输入层施加输入信息,通过中间各层,加权后传递到输出层后输出。每层的神经元只只接受前一层神经元的输入,各神经元之间不存在反馈。p感知器(Perceptron)、BP神经网络和径向基函数(RBF-Redial Basis Function)神经网络都属于这种类型。q 反馈网络 全互连网络二、人工神经网络的拓扑结构及其学
17、习规则2023/1/529p在互连网络模型中,任意两个神经元之间都可能有相互连接的关系。其中,有的神经元之间是双向的,有的是单向的。Hopfield网络、Boltzman机网络属于这一类。p 在无反馈的前向网络中,信号一旦通过某个神经元,过程就结束结束了。而在互连网络中,信号要在神经元之间反复往返传递,神经网络处在一种不断改变状态的动态动态之中。从某个初始状态开始,经过若干次的变化,才会到达某种平衡状态,根据神经网络的结构和神经元的特性,还有可能进入周期振荡或其它如浑沌等平衡状态平衡状态。状态反馈网络二、人工神经网络的拓扑结构及其学习规则2023/1/530p在前向神经网络中有的在同一层中的各
18、神经元相互有连接,通过层内神经元的相互结合,可以实现同一层内神经元之间的横向抑制横向抑制或兴奋兴奋机制,这样可以限制每层内能同时动作的神经元数,或者把每层内的神经元分为若干组,让每组作为一个整体来动作。(层内有互联的前向神经网络)状态反馈网络输出反馈网络 二、人工神经网络的拓扑结构及其学习规则2023/1/531输出反馈网络 p在层次网络结构中,只在输出层到输入层存在反馈,即每一个输入节点都有可能接受来自外部的输入和来自输出神经元的反馈。这种模式可用来存储某种模式序列模式序列,如神经认知机即属于此类,也可以用于动态时间序列动态时间序列过程的神经网络建模。(有反馈的前向神经网络)3.人工神经网络
19、的学习方式、规则及分类二、人工神经网络的拓扑结构及其学习规则2023/1/532 神经网络的学习规则p 相关规则 Hebb学习规则(无指导学习)p 纠错规则 Delta()学习规则(有指导学习)p 竞争学习规则(无指导学习)p 随机学习规则(有指导学习)p 强化学些规则(增强学习)神经网络的学习方式p有监督(误差校正)学习方式p无监督学习方式3.人工神经网络的学习方式、规则及分类二、人工神经网络的拓扑结构及其学习规则2023/1/533n人工神经网络连接权值的确定通常有两种方法两种方法p根据具体要求,直接计算,如Hopfield网络作优化计算;p通过学习得到的。大多数人工神经网络都采用这种方法
20、。n学习学习是改变各神经元连接权值的有效方法有效方法,也是体现人工神经网络智能特性最主要最主要的标志。离开了学习,神经网络就失去了诱人的自适应、自组织能力。学习方法是人工神经网络研究中的核心问题学习方法是人工神经网络研究中的核心问题3.人工神经网络的学习方式、规则及分类二、人工神经网络的拓扑结构及其学习规则2023/1/534p有监督学习方式特点:特点:不能保证得到全局最优解;不能保证得到全局最优解;要求大量训练样本,收敛速度慢;要求大量训练样本,收敛速度慢;对样本地表示次序变化比较敏感;对样本地表示次序变化比较敏感;神经网络根据实际输出与期望输出的偏差,按照一定的准则调整各神经元连接的权系数
21、,见下图。期望输出又称为导师信号,是评价学习的标准,故这种学习方式又称为有导师学习。神经网络的学习方式3.人工神经网络的学习方式、规则及分类二、人工神经网络的拓扑结构及其学习规则2023/1/535p无监督学习方式神经网络的学习方式 无导师信号提供给网络,神经网络仅仅仅仅根据其输入调整连接权系数和阈值,此时,网络的学习评价标准隐含于内部。其结构见下图。这种学习方式主要完成聚类操作聚类操作。ANN的学习规则 q 相关规则 仅依赖于连接间的激活水平改变权重,常用于自联想网络,执行特殊记忆状态的死记式学习。如Hebb规则 3.人工神经网络的学习规则及分类二、人工神经网络的拓扑结构及其学习规则2023
22、/1/536q 纠错规则 依赖输出节点的外部反馈修正权重,等效于梯度下降法。p如感知器学习规则:如果一节点的输出正确,权重不变不变;如果输出本应为零而为1,减小权重;如果本应为1而为0,增加权重;规则(最小均方LMS算法、Widrow-Haff算法):二、人工神经网络的拓扑结构及其学习规则2023/1/537广义 规则(BP学习规则):q 竞争学习规则 类似于聚类分析算法,学习表现为自适应于输入空间的事件分布,如矢量量化(Learning Vector Quantization,简称 LVQ)算法、SOM算法、以及ART训练算法都利用了竞争学习规则。二、人工神经网络的拓扑结构及其学习规则202
23、3/1/538q 随机学习规则 利用随机过程、概率统计和能量函数的关系来 调 节 连 接 权。如 模 拟 退 火(Simulated Annealing)算法。此 外,基 于 生 物 进 化 规 则 的 基 因 遗 传(Genetic Algorithm GA)算法在某种程度上也可视为一类随机学习算法。二、人工神经网络的拓扑结构及其学习规则2023/1/539q 强化学习规则 通过网络输出的正误修正权权重重,又称有评判的学习,强化信号仅仅说明输出正确与否。包括非联想的增强学习、联想增强、自适应评判学习等。二、人工神经网络的拓扑结构及其学习规则2023/1/540三类学习规则:q 有指导学习 不
24、仅需要学习用的输入事例(也称训练样本,通常为一矢量),同时还要求与之对应的表示所需期望输出的目标矢量。学习时,根据网络实际输出与目标输出间的误差改变权重。如纠错规则、随机学习规则。二、人工神经网络的拓扑结构及其学习规则2023/1/541q 无指导学习 不需要目标矢量,网络通过自身的“经历”来学会某种功能,学习在于调整权重以反映学习样本的分布。整个训练过程实质是抽取训练样本集的统计特性。如竞争学习规则。q 增强学习 不需要目标矢量,但要求提供外部的增强信号。二、人工神经网络的拓扑结构及其学习规则2023/1/542 ANN的分类q 按性能 连续型或离散型网络 确定性或随机性网络q 按结构 前向
25、或反馈网络q 按学习方式 有指导(教师)、无指导或强化学习网络 二、人工神经网络的拓扑结构及其学习规则2023/1/5431.感知器(Perceptron)其中:X=(x0,x1,x2,xN)T,x0=-1Wk=(wk0,wk1,wkN)Twk0=k,为神经元k的阈值 三、多层前向神经网络模型及BP算法2023/1/544令Y=(y1,y2,yM)T,F()=(f1(),f2(),fM()T 则:Y=F(W X)三、多层前向神经网络模型及BP算法2023/1/545三、多层前向神经网络模型及BP算法2023/1/546多层感知器:多层感知器:其中:三、多层前向神经网络模型及BP算法2023/1
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 机械 故障诊断 学钟秉林第 神经网络 诊断 原理 课件
限制150内