Ch 9 人工神经网络new.ppt





《Ch 9 人工神经网络new.ppt》由会员分享,可在线阅读,更多相关《Ch 9 人工神经网络new.ppt(132页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、第9章 人工神经网络与遗传算法Artificial Neural Network and Genetic Algorithms本章内容9.1 人工神经网络概述人工神经网络概述 9.1.1 生物神经元 9.1.2 人工神经网络的构成9.2 人工神经网络基本模型人工神经网络基本模型 9.2.1 感知器模型 9.2.2 线性神经网络 9.2.3 BP神经网络 9.2.4 其他神经网络9.3 BP神经网络理论神经网络理论 9.3.1 网络结构 9.3.2 数学模型 9.3.3 学习算法 9.3.4 网络的泛化能力 9.3.5 算法的改进 9.3.6 网络结构参数的确定 9.4 BP神经网络应用神经网络
2、应用 9.4.1 9.4.1 函数逼近函数逼近 9.4.2 9.4.2 字符识别字符识别 9.1人工神经网络概述人工神经网络概述 生物神经系统是一个有高度组织和相互作用的数量巨大的细胞组织群体。人类大脑的神经细胞大约在1011一1013个左右。神经细胞也称神经元,是神经系统的基本单元,它们按不同的结合方式构成了复杂的神经网络。通过神经元及其联接的可塑性,使得大脑具有学习、记忆和认知等各种智能。9.1.1 生物神经元1、结构神经元由细胞体(Soma)和延伸部分组成。延伸部分按功能分有两类,一种称为树突(Dendrite),用来接受来自其他神经元的信息;另一种用来传递和输出信息,称为轴突(Axon
3、)。神经元之间的相互连接从而让信息传递的部位披称为突触(Synapse),突触的联接是可塑的,也就是说突触特性的变化是受到外界信息的影响或自身生长过程的影响。2、特征 (1)并行分布处理 大脑中单个神经元的信息处理速度是很慢的,每次约1毫秒,比通常的电子门电路要慢几个数量级。但是人脑对某一复杂过程的处理和反应却很快,一般只需几百毫秒。而在这个处理过程中,与脑神经系统的一些主要功能,如视觉、记亿、推理等有关。按照上述神经元的处理速度,如果采用串行工作模式,就必须在几百个串行步内完成,这实际上是不可能办到的。因此只能把它看成是一个由众多神经元所组成的超高密度的并行处理系统。例如在一张照片寻找一个熟
4、人的面孔,对人脑而言,几秒钟便可完成,但如用计算机来处理,以现有的技术,是不可能在短时间内完成的。(2)神经系统的可塑性和自组织性 从生理学的角度看,它体现在突触的可塑性和联接状态的变化。例如在某一外界信息反复刺激下接受该信息的神经细胞之间的突触结合强度会增强。这种可塑性反映出大脑功能既有先天的制约因素,也有可能通过后天的训练和学习而得到加强。(3)信息处理与信息存贮合二为一 由于大脑神经元兼有信息处理和存贮功能,所以在进行回亿时,不但不存在先找存贮地址而后再调出所存内容的问题,而不像现行计算机那样存贮地址和存贮内容是彼此分开的。(4)信息处理的系统性 大脑的各个部位是一个大系统中的许多子系统
5、。各个子系统之间具有很强的相互联系,一些子系统可以调节另一些子系统的行为。例如,视觉系统和运动系统就存在很强的系统联系,可以相互协调各种信息处理功能。(5)能接受和处理模糊的、模拟的、随机的信息 9.1.2 人工神经网络 人工神经网络(Artificial Neural Network,ANN)是对人类大脑特性的一种描述。它是一个数学模型,可以用电子线路实现,也可以用计算机程序来模拟。是人工智能研究的一种方法。2022/12/1912n1、定义、定义 n1)HechtNielsen(1988年)年)人工神经网络是一个并行、分布处理结构,人工神经网络是一个并行、分布处理结构,它由处理单元及其称为
6、联接的无向讯号通道它由处理单元及其称为联接的无向讯号通道互连而成。这些处理单元(互连而成。这些处理单元(PEProcessingElement)具有局部内存,并可以完成局部操)具有局部内存,并可以完成局部操作。每个处理单元有一个单一的输出联接,作。每个处理单元有一个单一的输出联接,这个输出可以根据需要被分枝成希望个数的这个输出可以根据需要被分枝成希望个数的许多并行联接,且这些并行联接都输出相同许多并行联接,且这些并行联接都输出相同的信号,即相应处理单元的信号,信号的大的信号,即相应处理单元的信号,信号的大小不因分支的多少而变化。小不因分支的多少而变化。2022/12/1913n(1)Hecht
7、Nielsen(1988年)(续)年)(续)n处理单元的输出信号可以是任何需要的数学模处理单元的输出信号可以是任何需要的数学模型,每个处理单元中进行的操作必须是完全局型,每个处理单元中进行的操作必须是完全局部的。也就是说,它必须仅仅依赖于经过输入部的。也就是说,它必须仅仅依赖于经过输入联接到达处理单元的所有输入信号的当前值和联接到达处理单元的所有输入信号的当前值和存储在处理单元局部内存中的值。存储在处理单元局部内存中的值。2022/12/1914n强调:强调:n并行、分布处理结构;并行、分布处理结构;n 一一个个处处理理单单元元的的输输出出可可以以被被任任意意分分枝枝,且大小不变;且大小不变;
8、n 输出信号可以是任意的数学模型;输出信号可以是任意的数学模型;n 处理单元完全的局部操作处理单元完全的局部操作 2022/12/1915n(2)Rumellhart,McClelland,Hinton的的PDP n1)一组处理单元一组处理单元(PE或或AN););n2)处理单元的处理单元的激活状态激活状态(ai););n3)每个处理单元的每个处理单元的输出函数输出函数(fi););n4)处理单元之间的处理单元之间的联接模式联接模式;n5)传递规则传递规则(wijoi););n6)把把处处理理单单元元的的输输入入及及当当前前状状态态结结合合起起来来产产生生激激活值的活值的激活规则激活规则(Fi
9、););n7)通过经验修改联接强度的通过经验修改联接强度的学习规则学习规则;n8)系统运行的环境(系统运行的环境(样本样本集合)。集合)。2022/12/1916n(3)Simpson(1987年)年)n人工神经网络是一个非线性的有向图,人工神经网络是一个非线性的有向图,图中含有可以通过改变权大小来存放模图中含有可以通过改变权大小来存放模式的加权边,并且可以从不完整的或未式的加权边,并且可以从不完整的或未知的输入找到模式。知的输入找到模式。2022/12/1917n2、关键特征、关键特征n(1 1)信息的分布表示信息的分布表示n(2 2)运算的全局并行与局部操作运算的全局并行与局部操作n(3
10、3)处理的非线性特征处理的非线性特征 下图是一个神经元的结构图,通过与生物神经元的比较可以知道它们的有机联系,生物神经元中的神经体与人工神经元中的结点相对应,树突(神经末梢)与输入相对应,轴突与输出相对应,突触与权值相对应。3、ANN研究与应用的主要内容研究与应用的主要内容 (1)人工神经网络模型的研究 神经网络原型研究,即大脑神经网络的 生理结构、思维机制。神经元的生物特性如时空特性、电化 学性质等的人工模拟。易于实现的神经网络计算模型。神经网络的学习算法与学习系统。(2)神经网络基本理论 神经网络的非线性特性,包括自组织、自适应等作用。神经网络的基本性能,包括稳定性、收敛性、容错性、鲁棒性
11、、动力学复杂性。神经网络的计算能力与信息存贮容量。(3)神经网络智能信息处理系统的应用 认知与人工智能,包括模式识别、计算机视觉与听觉、特征提取、语音识别语言翻译、联想记忆、逻辑推理、知识工程、专家系统、故障诊断、智能机器人等。优化与控制,包括决策与管理、系统辨识、鲁棒性控制、自适应控制、并行控制、分布控制等。信号处理,自适应滤波、时间序列预测、消噪、非线性预测、非线性编码等。(4)神经网络的软件模拟和硬件实现(5)神经网络计算机的实现 4、ANN的信息处理能力 存贮能力和计算能力是现代计算机科学中的两个基本问题,同样,它们也构成了人工神经网络研究中的基本问题。人工神经网络的信息处理能力包括两
12、方面的内容:神经网络信息存贮能力神经网络信息存贮能力 即要解决这样的一个问题:在一个有N个神经元的神经网络中,可存贮多少值的信息?神经网络的计算能力神经网络的计算能力(1)神经网络的存贮能力 定定义义:一一个个存存贮贮器器的的信信息息表表达达能能力力定定义义为为其其可可分辨的信息类型的对数值。分辨的信息类型的对数值。在一个M1的随机存贮器RAM中,有M位地址,一位数据,它可存贮2M位信息。M1的RAM的存贮能力为:C2M(位)。(2)神经网络的计算能力 数学的近似映射 概率密度函数的估计 从二进制数据基中提取相关的知识 形成拓扑连续及统计意义上的同构映射 最近相邻模式分类 数据聚类 最优化问题
13、 用来求解局部甚至是全局最优解。2022/12/19269.1.3人工神经网络发展人工神经网络发展回顾回顾 n1、产生产生期(期(20世纪世纪40年代)年代)n人人工工神神经经网网络络的的研研究究最最早早可可以以追追溯溯到到人人类类开开始始研究自己的智能的时期,到研究自己的智能的时期,到1949年止。年止。n1943年年,心心理理学学家家McCulloch和和数数学学家家Pitts建建立立起起了了著著名名的的阈阈值值加加权权和和模模型型,简简称称为为M-P模模型型。发发表表于于数数学学生生物物物物理理学学会会刊刊BulletinofMathematicalBiophysicsn1949年,心理
14、学家年,心理学家D.O.Hebb提出神经元之间提出神经元之间突触联系是可变的假说突触联系是可变的假说Hebb学习律。学习律。2022/12/19272高潮时期(高潮时期(19501968)n以以MarvinMinsky,FrankRosenblatt,BernardWidrow等等为为代代表表人人物物,代代表表作作是单级感知器(是单级感知器(Perceptron)。)。n可用电子线路模拟。可用电子线路模拟。n人们乐观地认为几乎已经找到了智能的人们乐观地认为几乎已经找到了智能的关键。许多部门都开始大批地投入此项关键。许多部门都开始大批地投入此项研究,希望尽快占领制高点。研究,希望尽快占领制高点。
15、2022/12/19283低潮时低潮时期(期(19691982)nM.L.Minsky和和S.Papert,Perceptron,MITPress,1969年年 n异或异或”运算不可表示运算不可表示 n二十世纪二十世纪70年代和年代和80年代早期的研究结年代早期的研究结果果 n认识规律:认识认识规律:认识实践实践再认识再认识 2022/12/19294、第二高潮期(第二高潮期(19831990)n1982年,年,J.Hopfield提出循环网络提出循环网络n用用Lyapunov函数函数作为网络性能判定的能量函数,作为网络性能判定的能量函数,建立建立ANNANN稳定性的判别依据稳定性的判别依据n
16、阐明了阐明了ANNANN与动力学的关系与动力学的关系n用非线性动力学的方法来研究用非线性动力学的方法来研究ANNANN的特性的特性n指出信息被存放在网络中神经元的联接上指出信息被存放在网络中神经元的联接上 2022/12/1930n2)1984年,年,J.Hopfield设计研制了后来设计研制了后来被人们称为被人们称为Hopfield网网的电路。较好地解的电路。较好地解决了著名的决了著名的TSP问题,找到了最佳解的近问题,找到了最佳解的近似解,引起了较大的轰动。似解,引起了较大的轰动。n3)1985年,年,UCSD的的Hinton、Sejnowsky、Rumelhart等人所在的并行分布处理等
17、人所在的并行分布处理(PDP)小组的研究者在)小组的研究者在Hopfield网络中网络中引入了随机机制,提出所谓的引入了随机机制,提出所谓的Boltzmann机机。2022/12/1931n4)1986年年,并并 行行 分分 布布 处处 理理 小小 组组 的的Rumelhart等等研研究究者者重重新新独独立立地地提提出出多多层层网网络络的的学学习习算算法法BP算算法法,较较好好地地解解决决了了多多层层网网络络的的学学习习问问题题。(Paker1982和和Werbos1974年)年)n国内首届神经网络大会国内首届神经网络大会是是1990年年12月在月在北京举行的北京举行的。2022/12/193
18、25 5、再认识与应用研究期(、再认识与应用研究期(1991)n问题:问题:n1)应用面还不够宽应用面还不够宽n2)结果不够精确结果不够精确n3 3)存在可信度的问题)存在可信度的问题 2022/12/1933n研究:研究:n1)开开发发现现有有模模型型的的应应用用,并并在在应应用用中中根根据据实实际际运运行行情情况况对对模模型型、算算法法加加以以改改造造,以以提提高高网网络的训练速度和运行的准确度。络的训练速度和运行的准确度。n2)充充分分发发挥挥两两种种技技术术各各自自的的优优势势是是一一个个有有效效方法方法n3)希希望望在在理理论论上上寻寻找找新新的的突突破破,建建立立新新的的专专用用/
19、通用模型和算法。通用模型和算法。n4 4)进进一一步步对对生生物物神神经经系系统统进进行行研研究究,不不断断地地丰富对人脑的认识。丰富对人脑的认识。9.2 人工神经网络基本模型人工神经网络基本模型 9.2.1 感知器模型感知器模型 感知器是一种早期的神经网络模型,由美国学者F.Rosenblatt于1957年提出.感知器中第一次引入了学习的概念,使人脑所具备的学习功能在基于符号处理的数学到了一定程度的模拟,所以引起了广泛的关注。感知器在形式上与MP模型差不多,它们之间的区别在于神经元间连接权的变化。感知器的连接权定义为可变的,这样感知器就被赋予了学习的特性。1、感知器的结构 感知器处理单元对n
20、个输入进行加权和操作:其中,xi为第i个输入,wi为第i个输入到处理单元的连接权值,为阈值。f是阶跃函数。为简化表示,把阈值 当作输入-w0 ,写成向量形式:返返 回回 2、感知器的学习算法n感知器的学习是有导师学习感知器的学习是有导师学习n感知器的训练算法的基本原理来源于著名的感知器的训练算法的基本原理来源于著名的Hebb学学习律习律n基本思想:逐步地将样本集中的样本输入到网络中基本思想:逐步地将样本集中的样本输入到网络中,根根据输出结果和理想输出之间的差别来调整网络中的权据输出结果和理想输出之间的差别来调整网络中的权矩阵矩阵 2022/12/1939感知器学习算法感知器学习算法 n1用适当
21、的小伪随机数初始化权矩阵用适当的小伪随机数初始化权矩阵W;n2.初置精度控制参数初置精度控制参数,学习率,学习率,精度控制变量,精度控制变量d=+1;n3While d don 3.1 d=0;n 3.2 for 每个样本(每个样本(X,Y)don3.2.1 输入输入X(=(x1,x2,xn)););n3.2.2 求求O=F(XW););n3.2.3 修改权矩阵修改权矩阵W:nfor i=1 to n,j=1 to m donwij=wij+(yj-oj)xi;n3.2.4 累积误差累积误差nfor j=1 to m dond=d+(yj-oj)22022/12/19401、1962年年,Ro
22、senblatt证证明明:Perceptron可可以以学学会会它它能表示的任何东西能表示的任何东西 2、Minsky在在1969年年证证明明,有有许许多多基基本本问问题题是是感感知知器器无无法解决法解决3、问题线性可分性可能与时间有关问题线性可分性可能与时间有关4、很难从样本数据集直接看出问题是否线性可分很难从样本数据集直接看出问题是否线性可分5、未未能能证证明明,一一个个感感知知器器究究竟竟需需要要经经过过多多少少步步才才能能完完成训练。成训练。2022/12/19413线性不可分问题线性不可分问题 异或异或(ExclusiveOR)问题问题 nG(x,y)nyn0n1nxn0n0n1n1n
23、1n02022/12/1942线性不可分函数线性不可分函数nR.O.Windner 1960年年 n自变量个数自变量个数n函数的个数函数的个数n线性可分函数的个数线性可分函数的个数n1n4n4n2n16n14n3n256n104n4n65,536n1882n5n4.3*109n94,572n6n1.8*1019n5,028,1342022/12/1943线性不可分问题的克服线性不可分问题的克服 n用多个单级网组合在一起,并用其中的一个去用多个单级网组合在一起,并用其中的一个去综合其它单级网的结果,我们就可以构成一个综合其它单级网的结果,我们就可以构成一个两级网络,该网络可以被用来在平面上划分出
24、两级网络,该网络可以被用来在平面上划分出一个封闭或者开放的凸域来一个封闭或者开放的凸域来n一个非凸域可以拆分成多个凸域。按照这一思一个非凸域可以拆分成多个凸域。按照这一思路,三级网将会更一般一些,我们可以用它去路,三级网将会更一般一些,我们可以用它去识别出一些非凸域来。识别出一些非凸域来。n解决好隐藏层的联接权的调整问题是非常关键解决好隐藏层的联接权的调整问题是非常关键的的 9.2.2 线性神经网络线性神经网络 1、网络结构 50年代末,Widrow提出的Adaline是最早的线性神经网络,它是由一个或多个线性神经元构成,每个神经元的传递函数是一个线性函数,因此,线性神经网络的输出可以是任意值
25、。一个线性神经元的网络结构如下图:w(1,1)w(1,R)bp(1)p(2)p(R)a 2、传递函数 线性神经网络的传递函数是一个线性函数,如下图所示:Pa-b/w0+b/w 3、线性神经元输出 在matlab中,线性传递函数purelin是计算神经元输出的,当只有一个神经元时,输出为:a=purelin(w*p+b)当输入是矩阵形式,神经元个数不止一个时,输出为:a=purelin(w*p,b)思考:线性神经网络与感思考:线性神经网络与感知器的区别?知器的区别?9.2.3 BP神经网络 1、网络学习算法提出 60年代末,Minsky和Papert指出了感知机的功能和处理能力的局限性,在感知机
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- Ch 人工神经网络new 人工 神经网络 new

限制150内