(本科)第9章人工神经网络教学ppt课件.ppt
《(本科)第9章人工神经网络教学ppt课件.ppt》由会员分享,可在线阅读,更多相关《(本科)第9章人工神经网络教学ppt课件.ppt(70页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、(本科)第9章 人工神经网络教学ppt课件LOGO第九章第九章 人工神经网络人工神经网络东北财经大学电子商务学院东北财经大学电子商务学院人工神经网络知识结构人工神经网络知识结构概述概述1人工神经元模型人工神经元模型2人工神经网络的结构人工神经网络的结构3感知机感知机4多层前馈网络多层前馈网络5后向传播后向传播6解释结果解释结果7学习任务学习任务89.1 人工神经网络概述人工神经网络概述 v 人脑由大约1010个大脑皮层神经元组成,每个神经元都是一个信息处理单元,这些神经元之间相互连接,传递信息。人工神经网络试图去模拟人脑信息处理的功能,是人脑及其活动的一个理论化的数学模型。 v 人工神经网络(
2、Artificial Neural Network, ANN),有时把“人工”两个字省略,亦称为神经网络(Neural Network, NN),是一个由很多节点通过方向性链接组成的一个网络结构,每一个节点代表一个处理单元,由大量并行分布式处理单元组成的处理机。v 它通过调整连接强度而从经验知识进行学习,并可以将这些知识进行运用。 一、定义一、定义9.1 人工神经网络概述人工神经网络概述 v 1988年,Hecht-Nielsen曾经给人工神经网络做了如下的定义:v 人工神经网络是一个并行、分布处理结构,它由处理单元及称为联接的无向信号通道互连而成。这些处理单元(Processing Elem
3、ent, PE)具有局部内存,并可以完成局部操作。每个处理单元有一个单一的输出联接,这个输出可以根据需要被分支成希望个数的许多并行联接,且这些并行联接都输出相同的信号,即相应处理单元的信号,信号的大小不因分支的多少而变化。处理单元的输出信号可能是任何需要的数学模型,每个处理单元中进行的操作必须是完全局部的。也就是说,它必须仅仅依赖于经过输入联接到达处理单元的所有输入信号的当前值和存储在处理单元局部内存中的值。一、定义一、定义9.1 人工神经网络概述人工神经网络概述v 人工神经网络不公在形式上模拟了生物神经系统的结构,它也确实具有大脑的一些基本特征:v 大规模并行分布处理结构信息在大脑单个神经元
4、之间的传递时间与计算机中信息的传递时间相比十分缓慢,但处理信息的整体速度却比许多计算机快很多。可见大脑的信息处理是并行的而不是串行的。人工神经网络是一个高效率的并行处理机。v 具有很强的容错性当发生神经元断开、干扰或者数据丢失等不利情况时,神经网络的效率并不会显著地降低,即任何局部的损伤不会影响整体结果。v 具有很强的自适应能力自适应能力也称为学习能力或自组织特性。人工神经网络在学习过程中,通过调整神经元之间的连接强度,具有初步的自适应与自组织的能力。当外部环境改变的时候,稍加训练神经网络就可以适应新的环境。v 高度非线性作为基本单元的神经网络可以是线性的或非线性的处理元素,但是由大量神经元构
5、成的整个神经网络是复杂异常的高度非线性的。一、定义一、定义9.1 人工神经网络概述人工神经网络概述 人工神经网络的研究始于20世纪40年代,经过了一条曲折的道路,发展至今大致可分为以下五个阶段:二、人工神经网络的发展二、人工神经网络的发展萌芽期萌芽期19431949第一个高潮期第一个高潮期19501968反思期反思期19601981第二个高潮期第二个高潮期19821991持续发展阶段持续发展阶段20世纪世纪90年代后年代后9.1 人工神经网络概述人工神经网络概述 二、人工神经网络的发展二、人工神经网络的发展(1)萌芽期v 1943年,精神病学家和神经解剖学家McCulloch与数学家Pitts
6、在数学生物物理学会刊Bulletin of Mathematical Biophysics上发表了一片文章。总结了生物神经元的一些基本特征,提出了一种简单的神经元的数学模型和构造方法,即著名的阈值加权和模型,简称MP模型。此模型一直沿用至今,它的提出兴起了神经网络的研究。v 1949年,生理学家D.O.Hebb出版了The Organization of Behavior一书,提出神经元之间突触联系是可变的假说,并第一次鲜明地提出了改变神经元连接强度的Hebb规则。他认为,人类的学习过程是发生在突触上的,突触的联系强度随其前后神经元的活动而变化。当某一突触(连接)两端的神经元同步激活(同为激活
7、或同为抑制)时,该连接的强度应增强,反之应减弱。称之为Hebb学习律。Hebb学习律为神经网络的学习算法奠定了基础,被认为是人工神经网络学习训练算法的起点,是里程碑,使神经网络的研究进入了一个重要的发展阶段。9.1 人工神经网络概述人工神经网络概述 二、人工神经网络的发展二、人工神经网络的发展(2)第一个高潮期v 第一个高潮大体上可以认为是从1950年到1968年,也就是从单层感知器(Perceptron)的构造成功开始,到单层感知器被无情地否定为止。这是人工神经网络的研究被广为重视的一个时期。v 1957年,美国计算机学家F.Rosenblatt提出了著名的感知器模型,此模型类似于MP模型,
8、但连接权值是可变的,输入一定的值,神经网络经过训练可以达到对一定的输入向量模式进行分类和识别的目的,使神经网络具有学习功能。v 在感知器盛行的20世纪60年代,人们对神经网络的研究过于乐观,不少人认为,只要其他的技术条件成熟,建立一个足够大的网络就可以解决人脑思维的模拟问题。因此当时有上百家实验室纷纷投入这项研究,美国军方也投入了巨额资金,当时神经网络在声纳信号识别等领域的应用取得了一定的成绩。9.1 人工神经网络概述人工神经网络概述 二、人工神经网络的发展二、人工神经网络的发展(3)反思期v 1969年,美国麻省理工学院人工智能专家M.Minsky与S.Papert在其合著的感知器一书中指出
9、单层感知器的计算具有根本的局限性,从理论上证明了当时的单层感知器无法解决许多简单的问题,甚至连异或问题这样基本的问题也不能解决。这结论的提出使得当时许多神经网络研究人员感到前途渺茫,放弃了除心理学和神经学之外的其他领域,政府、企业也削减了相应的投资,人工神经网络在随后的10年左右处于萧条状态。v Cowan在1990年提出了三个导致神经网络研究十多年滞后的原因。v 难能可贵的是,在此期间,仍有不少学者在极端艰难的条件下,致力于这一研究。在20世纪70年代和80年代早期,他们的研究结果很难得到发表,而且是散布于各种杂志之中。使得不少有意义的成果即使在发表之后,也难以被同行看到,这导致了反思期的延
10、长。著名的BP算法的研究就是一个例子。是技术上的,没有个人计算机和工作空间站进行实验,如Gabor发展了他的非线性学习滤波器,却花费了额外的六年时问建造了含有类推装置的滤波器;一半是心理上的,即Minsky和Papert对感知器的悲观结论,一半是资金上的,即没有代理商资助;是神经网络和晶格旋转之间的类推还未成熟,直到1975年才由Sherrington和Kirkpartrick创建出旋转镜片模型。9.1 人工神经网络概述人工神经网络概述 二、人工神经网络的发展二、人工神经网络的发展(4)第二个高潮期v 学术界公认,标志人工神经网络研究高潮的又一次到来是美国加州理工学院生物物理学家J.Hopfi
11、eld教授于1982年和1984年发表在美国科学院院刊上的两篇文章以及1986年Rumelhart与McLelland的两册书。v 1982年,J. Hopfield提出循环网络,并将Lyapunov函数引入人工神经网络,作为网络性能判定的能量函数,阐明了人工神经网络与动力学的关系,用非线性动力学的方法来研究人工神经网络的特性,建立了人工神经网络稳定性的判别依据,指出信息被存放在网络中神经元的联接上。v 1984年,J.Hopfield设计研制了后来被人们称为Hopfield网的电路。指出神经元可以用运算放大器来实现,所有神经元的连接可用电子线路来模拟。作为该研究的一项应用验证,它较好地解决了
12、著名的旅行商(TSP)优化问题,找到了最佳解的近似解,引起了较大的轰动。9.1 人工神经网络概述人工神经网络概述 二、人工神经网络的发展二、人工神经网络的发展(4)第二个高潮期v 1986年,Rumelhart, Hinton和Williams发展了反向传播算法(Back-Propagation algorithm, BP)。同年,Rumelhart和McClelland编写的名为Parallel Distributed Processing: Explorations in the Microstructures of Cognition一册两本出版,此书的出版对反向传播算法的应用产生了重要
13、影响。说他发展了,是因为后来人们发现早在1974年类似的算法由美国哈佛大学的P.Werbos提出过,只是当时没有受到应有的重视。BP算法从原则上解决了神经网络的训练方法问题,使人工神经网络有了很强的运算能力,大大拓宽了神经网络的应用范围。v 这个期间,人们对神经网络的研究达到了第二个高潮。1987年6月在美国加州举行了第一届神经网络国际会议,来自世界各地的1000多名学者参加了大会,并成立了国际神经网络学会。我国1990年3月在北京召开了首届神经网络学术大会。1991年在南京成立中国神经网络学会。9.1 人工神经网络概述人工神经网络概述 二、人工神经网络的发展二、人工神经网络的发展(5)再认识
14、与应用研究期v 步入20世纪90年代后,人们发现,关于人工神经网络还有许多待解决的问题,其中包括许多理论问题。所以,近期要想用人工神经网络的方法在人工智能的研究中取得突破性的进展还为时过早。因此又开始了新一轮的再认识。v 目前,大多数的研究主要集中在以下三个方面:1建立理论模型。从生理学、神经科学等学科对生物神经细胞和神经网络的研究成果出发,建立概念模型、知识模型、数学模型等。2网络模型与算法研究。在理论模型的基础上构造具体的神经网络模型,以便实现计算机模拟和硬件制造。3应用研究。在网络模型与算法研究的基础上,利用人工神经网络组成实际的应用系统,以便实现某种实际功能。9.2 人工神经元的模型人
15、工神经元的模型一、生物神经元一、生物神经元v 人类的大脑主要由称为神经元(neuron)的神经细胞组成,神经元不但是组成大脑的基本单元,而且也是大脑进行信息处理的基本元件。典型的生物神经元(即神经细胞)分为四个部分,细胞体:神经元的主体轴突(axon):连接细胞体的纤维丝,每个神经元只有一个轴突,可以把兴奋从胞体传送到另一个神经元或其他组织,如肌肉或腺体 树突(dendrite):细胞体通过它连接到其它神经元的轴突,树突是神经元细胞体的延伸物,每个神经元可以有一或多个树突,可以接受刺激并将兴奋传入细胞体神经键(synapse,又称突触):树突与轴突的连接点9.2 人工神经元的模型人工神经元的模
16、型二、人工神经元二、人工神经元v 神经元是构成神经网络的最基本单元(构件)。因此,要想构造一个人工神经网络系统,首要任务是构造人工神经元模型。v上图表示作为ANN基本单元的神经元模型,它有三个基本要素: (1)一组连接权(对应于生物神经元的突触),连接强度由各连接上的权值表示,权值为正表示激励,为负表示抑制。(2)加法器,用于求取各输入信息的加权和(线性组合)。(3)激活函数,起非线性映射作用并限制神经元输出幅度在一定的范围之内(一般限制在0,1或1,+1之间)。v此外,还包括一个外部的偏差,用 来表示。偏差有增大或者减小激活函数的净输入的作用,取决于该偏差是负值还是正值。像其它输入一样,它有
17、权重且包含在组合函数中,偏差充当整体偏移以便帮助网络较好地理解模式。训练阶段调整固定输入的权重的方法与网络对其它权重的调整方法相同。kb. f(net) netX1 X2 X3 W K1 W Kmb k y k第第K个神经元个神经元 神经元模型神经元模型W K2 9.2 人工神经元的模型人工神经元的模型二、人工神经元二、人工神经元v 我们来用数学术语对一个人工神经元的处理能力进行正式化。设n个输入分别用x1,x2,xn表示,它们对应的连接权值依次为w1,w2,wn,用net表示该神经元所获得的输入信号的累积效果,即输入和相应权重乘积的累加xiwki。用符号wko表示bk,并且默认输入x0=1,
18、新的net的求和的统一形式为:同样,还可以用矢量符号来将其表示成两个n维向量的无向量乘积:其中,Xx0,x1,xn Ww0,w1,wn最后,计算netk的某个函数值作为输出值yk: 函数 f 叫做激活函数。kknnkkkbwxwxwxnet2211ikiiknnkkkkwxwxwxwxwxnet221100WXnetk)(kknetfy 9.2 人工神经元的模型人工神经元的模型v 一些常用的激活函数激活函数输入输出关系图像阶跃对称阶跃线性函数分段线性函数对称分段线性函数对称S型双曲正切曲线neteneteneteneteynetey111 0111 1netnetnetnety如果如果如果00
19、1 1netnetnety如果如果nety 0如果00如果1netnety0如果10如果 1netnety9.2 人工神经元的模型人工神经元的模型二、人工神经元二、人工神经元v 将人工神经元的基本模型和激活函数合在一起构成人工神经元,这就是著名的MeCulloch-Pitts模型,简称为MP模型,也可以称之为处理单元(PE)。可以在单个神经元中分析所有处理阶段。v 单个节点的计算基本法则举例 对于3个输入和一个输出的神经元,计算三种激活函数所对应的输出值y。v 1. 激活函数为Symmetrical Hard Limit函数net=0.50.3+0.50.2+0.20.5+(-0.2) 1=0
20、.15y=f (net)=f (0.15)=1v 2. 激活函数为Saturationg Liear函数net=0.50.3+0.50.2+0.20.5+(-0.2) 1=0.15y=f (net)=f (0.15)=0.15v 3. 激活函数为Log-Sigmoid函数net=0.50.3+0.50.2+0.20.5+(-0.2) 1=0.15y=f (net)=f (0.15)=1/(1+e-0.15)=0.54(a)单个节点9.2 人工神经元的模型人工神经元的模型二、人工神经元二、人工神经元v 多个节点的计算法则举例假设给定的3个节点的偏差为0,并且所有节点的激活函数都是Symmetri
21、cal Hard Limit函数。问节点3的最终输出y3为多少?v 第一步,神经网络执行第一层中节点1和节点2的计算:net1=10.2+0.50.5=0.45 y1=f (0.45) =0.45 net2=1(-0.6)+0.5(-1)=-1.1 y2=f (-1.1)= -1v 第二步,第一层节点中的输出y1和y2是第二层中节点3的输入:net3=y1 1+y2 (-0.5)=0.45 1+(-1) (-0.5)=0.95 y3=f(0.95)=0.95 (b)三个相互链接的结点v 人工神经网络的结构是通过节点的特性以及网络中节点连接的特性来定义的。v 典型地,网络结构可以用网络的输入数目
22、,输出数目,基本节点的总数(通常节点单元的总数和整个网络的处理单元的数目相等),以及节点间的组织和连接方式来表示。v 按照连接的类型,神经网络通常分为两类:前向型和回馈型。v 虽然很多神经网络模型都可以归为这两类,但是有反向传播学习机理的多层前向型网络仍是在实际中运用得最为广泛的一种模型。可能有超过90%的商业和工业的应用软件都是基于此模型建立的。v 为什么是多层的网络呢?一个简单的异或问题将会展示单层和多层神经网络之间在应用需求上的根本的不同。前向型网络前向型网络各神经元接受前一层的输入,并输出给下一层,没有反馈。节点分为输入单元和计算单元,每一计算单元可有任意多个输入,但只有一个输出(它可
23、耦合到任意多个其它节点作为其输入)。前向型网络可分为不同的层,同一层上的节点之间是没有相互连接的,第i层的输入只与第i-1层输出相连,输入和输出节点与外界相连,而其它中间层则称为隐层。回馈型网络回馈型网络如果有反馈连接组成网络中的封闭回路(通常有一个延迟单元作为同步组件),那么这种神经网络就是回馈型的。所有节点都是计算单元,同时也可接受输入,长向外界输出9.3 人工神经网络的结构人工神经网络的结构一、人工神经网络的经典结构一、人工神经网络的经典结构9.3 人工神经网络的结构人工神经网络的结构二、异或问题二、异或问题v 在神经网络著作中常常用最简单和最著名的异或问题来做示例。v 异或问题是不可能
24、线性分离的,即不能用一个单层的网络构建一条直线来将一个二维的输入空间划分成为两个部分,每个部分都包含只有同意类别的数据点。 图:异或问题样本示意图?9.3 人工神经网络的结构人工神经网络的结构二、异或问题二、异或问题v 两层的神经网络就可能解决异或问题,下图展示了一种联接权重和阈值的求解。该神经网络可以在二维的空间产生一个非线性的分割点。图:异或问题求解:以阶跃函数为激活函数的两层ANNv 从该例子得出的最基本的结论是:v 对那些基于线性模型的简单问题,单层的神经网络是最为方便的建模工具。但是,对绝大多数的实际问题,模型都是高度非线性的,多层神经网络是更好的解决方法甚至可能是惟一的解决方法。9
25、.4 感知机感知机一、感知机一、感知机v 生物神经元对信息的传递与处理是通过各神经元之间神经键的兴奋或抑制作用来实现的。根据这一事实,美国学者F.Rosenblatt于1957年在M-P模型和Hebb学习规则的基础上提出了具有自学习能力的感知机(perceptron)模型。v 感知机包含两种结点:输入结点用来表示输入属性;输出结点用来提供模型输出。v 在感知机中,每个输入结点都通过一个加权的链连接到输出结点。这个加权的链用来模拟神经元间的神经链连接的强度。图:一个简单的神经网络结构感知机9.4 感知机感知机二、训练感知机模型二、训练感知机模型v 像生物神经系统一样,训练一个感知机模型就相当于不
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 本科第9章 人工神经网络教学ppt课件 本科 人工 神经网络 教学 ppt 课件
限制150内