医学专题—人工神经网络基础知识.ppt
2 人工神经网络基础知识人工神经网络基础知识 2.1人工神经网络的生物学基础人工神经网络的生物学基础(jch)人的智能来自于大脑,大脑是由大量的人的智能来自于大脑,大脑是由大量的神经细胞或神经元神经细胞或神经元组成的。组成的。每个神经元可以看作为一个小的每个神经元可以看作为一个小的处理单元处理单元,这些神经元按照某种方,这些神经元按照某种方式式互相连接互相连接起来,构成了大脑内部的起来,构成了大脑内部的生物神经元网络生物神经元网络,他们中各神经他们中各神经元之间连接的强弱,按照外部的激励信号作自适应变化元之间连接的强弱,按照外部的激励信号作自适应变化(binhu),而,而每个神经元又随着接收到的多个激励信号的综合大小呈现兴奋或抑每个神经元又随着接收到的多个激励信号的综合大小呈现兴奋或抑制状态。制状态。据现在的了解,据现在的了解,大脑的学习过程就是神经元之间连接强度随大脑的学习过程就是神经元之间连接强度随外部激励信息做自适应变化的过程,大脑处理信息的结果确由神经外部激励信息做自适应变化的过程,大脑处理信息的结果确由神经元的状态表现出来。元的状态表现出来。显然,神经元是信息处理系统的最小单元。虽然神显然,神经元是信息处理系统的最小单元。虽然神经元的类型有很多种,但其基本结构相似。经元的类型有很多种,但其基本结构相似。第一页,共六十三页。神经元是大脑处理信息的基本单元神经元是大脑处理信息的基本单元人脑约由人脑约由101l-1012个神经元组成,其中,每个神经元约与个神经元组成,其中,每个神经元约与104-105个神经元通过突触联接,形成极为错纵复杂而且又个神经元通过突触联接,形成极为错纵复杂而且又灵活多变的神经网络灵活多变的神经网络神经元以细胞体为主体,由许多向周围延伸的不规则树枝神经元以细胞体为主体,由许多向周围延伸的不规则树枝状纤维构成的神经细胞,其形状很像一棵枯树状纤维构成的神经细胞,其形状很像一棵枯树(k sh)的枝的枝干干主要由细胞体、树突、轴突和突触主要由细胞体、树突、轴突和突触(Synapse,又称神经键,又称神经键)组成组成 一、生物一、生物(shngw)(shngw)神经元神经元第二页,共六十三页。生物生物(shngw)(shngw)神经元网络结构神经元网络结构 树突是树状的神经纤维接收网络,它将电信号传送到细胞体树突是树状的神经纤维接收网络,它将电信号传送到细胞体细胞体对这些输入信号进行整合并进行阈值处理细胞体对这些输入信号进行整合并进行阈值处理轴突是单根长纤维,它把细胞体的输出信号导向其他神经元轴突是单根长纤维,它把细胞体的输出信号导向其他神经元一个一个(y)(y)神经细胞的轴突和另一个神经细胞的轴突和另一个(y)(y)神经细胞树突的结合点称为神经细胞树突的结合点称为突触突触 神经元的排列神经元的排列(pili)(pili)和突触的强度和突触的强度(由复杂的化学过程决定由复杂的化学过程决定)确立了神经网络的功确立了神经网络的功能。能。第三页,共六十三页。生物学研究表明一些生物学研究表明一些(yxi)神经结构是与生俱来的,而其他部分则神经结构是与生俱来的,而其他部分则是在学习的过程中形成的。是在学习的过程中形成的。在学习的过程中,可能会产生一些新的连接,也可能会使在学习的过程中,可能会产生一些新的连接,也可能会使以前的一些连接消失。这个过程在生命早期最为显著。以前的一些连接消失。这个过程在生命早期最为显著。第四页,共六十三页。二、突触的信息处理二、突触的信息处理生物神经元传递信息的过程为多输入、单输出;生物神经元传递信息的过程为多输入、单输出;神经元各组成部分的功能来看,信息的处理与传递主要发生神经元各组成部分的功能来看,信息的处理与传递主要发生在突触附近;在突触附近;当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强当神经元细胞体通过轴突传到突触前膜的脉冲幅度达到一定强度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传度,即超过其阈值电位后,突触前膜将向突触间隙释放神经传递的化学物质;递的化学物质;突触有两种类型,兴奋性突触和抑制性突触。前者产生正突触后电突触有两种类型,兴奋性突触和抑制性突触。前者产生正突触后电位,后者产生负突触后电位。位,后者产生负突触后电位。抑制性抑制性-神经元虽然接收到其他神神经元虽然接收到其他神经元传递的信息,但没有向外传递信息,该神经元称经元传递的信息,但没有向外传递信息,该神经元称“抑制性抑制性”的;的;兴奋性兴奋性-当一个神经元的树突接收的兴奋信息累计当一个神经元的树突接收的兴奋信息累计(li j)超过超过阈值,该神经元被激活并传递出信息给其他神经元。阈值,该神经元被激活并传递出信息给其他神经元。第五页,共六十三页。三、信息传递功能三、信息传递功能(gngnng)(gngnng)与特点与特点 具有时空整合能力具有时空整合能力时间整合时间整合各输入脉冲抵达神经元的先后时间不同,一个脉冲引起的突触后电位很小,但随着各输入脉冲抵达神经元的先后时间不同,一个脉冲引起的突触后电位很小,但随着时间延续,另有脉冲到达,总的突触后电位就增大。时间延续,另有脉冲到达,总的突触后电位就增大。空间整合空间整合在同一时刻产生的刺激所引起的膜电位变化,大致等于各单独刺激引起的膜电在同一时刻产生的刺激所引起的膜电位变化,大致等于各单独刺激引起的膜电位变化的代数和。这种累加求和称空间整合。位变化的代数和。这种累加求和称空间整合。不可逆性,脉冲只从突触前传到突触后,不逆向传递不可逆性,脉冲只从突触前传到突触后,不逆向传递 神经纤维传导的速度,即脉冲沿神经纤维传递的速度,在神经纤维传导的速度,即脉冲沿神经纤维传递的速度,在1150m1150ms s之间之间 信息传递时延和不应期,一般为信息传递时延和不应期,一般为0.30.3lmslms可塑性,突触传递信息的强度是可变的,即具有学习功能可塑性,突触传递信息的强度是可变的,即具有学习功能 存在学习、遗忘或疲劳(饱和存在学习、遗忘或疲劳(饱和(boh)(boh))效应)效应对应突触传递作用增强、减弱和饱和对应突触传递作用增强、减弱和饱和第六页,共六十三页。2、生物神经系统的六个基本特征:、生物神经系统的六个基本特征:1)神经元及其联接;)神经元及其联接;2)神经元之间的联接强度决定信号传递的强弱;)神经元之间的联接强度决定信号传递的强弱;3)神经元之间的联接强度是可以)神经元之间的联接强度是可以(ky)随训练改变的;随训练改变的;4)信号可以是起刺激作用的,也可以是起抑制作用的;)信号可以是起刺激作用的,也可以是起抑制作用的;5)一个神经元接受的信号的累积效果决定该神经元的状态;)一个神经元接受的信号的累积效果决定该神经元的状态;6)每个神经元可以有一个每个神经元可以有一个“阈值阈值”。第七页,共六十三页。2.人工人工(rngng)神经元模型神经元模型人工神经网络是在现代神经生物学研究人工神经网络是在现代神经生物学研究(ynji)基础上提出的模基础上提出的模拟生物过程以反映人脑某些特性的计算结构。它不是人脑神经系统拟生物过程以反映人脑某些特性的计算结构。它不是人脑神经系统的真实描写,而只是它的某种抽象、简化和模拟。根据前面对生物的真实描写,而只是它的某种抽象、简化和模拟。根据前面对生物神经网络的研究神经网络的研究(ynji)可知,可知,神经元及其突触是神经网络的基本神经元及其突触是神经网络的基本器件器件。因此,。因此,模拟生物神经网络应首先模拟生物神经元模拟生物神经网络应首先模拟生物神经元。在人工神经网络中,神经元常被称为在人工神经网络中,神经元常被称为“处理单元处理单元”。有时从网。有时从网络的观点出发常把它称为络的观点出发常把它称为“节点节点”。人工神经元是对生物神经元的人工神经元是对生物神经元的一种一种(y zhn)形式化描述,形式化描述,它对生物神经元的信息处理过程进行抽它对生物神经元的信息处理过程进行抽象,并用数学语言予以描述;对生物神经元的结构和功能进行模象,并用数学语言予以描述;对生物神经元的结构和功能进行模拟,并用模型图予以表达。拟,并用模型图予以表达。第八页,共六十三页。目前人们提出的神经元模型已有很多,其中最早提出且影目前人们提出的神经元模型已有很多,其中最早提出且影响响(yngxing)最大的,是最大的,是1943年年心理学家心理学家McCulloch和数学家和数学家WPitts在分析总结神经元基本特性的基础上首先提出的在分析总结神经元基本特性的基础上首先提出的MP模型模型。该模。该模型经过不断改进后,形成目前广泛应用的形式神经元模型。型经过不断改进后,形成目前广泛应用的形式神经元模型。关于神经元的信息处理机制,该模型关于神经元的信息处理机制,该模型(mxng)在简化的基础上提出以在简化的基础上提出以下下6点约定进行描述:点约定进行描述:(1)每个神经元都是一个多输入单输出的信息处理单元;)每个神经元都是一个多输入单输出的信息处理单元;(2)突触分兴奋性和抑制性两种类型;)突触分兴奋性和抑制性两种类型;(3)神经元具有空间整合特性和阈值特性;)神经元具有空间整合特性和阈值特性;(4)神经元输入输出间有固定的时滞,主要取决于突触延搁;)神经元输入输出间有固定的时滞,主要取决于突触延搁;(5)忽略)忽略(hl)时间整合作用和不应期;时间整合作用和不应期;(6)神经元本身是非时变的,即其突触时延和突触强度均为常数。)神经元本身是非时变的,即其突触时延和突触强度均为常数。第九页,共六十三页。MP模型模型(mxng):称为作用函数或激发函数称为作用函数或激发函数第十页,共六十三页。MP模型模型(mxng)n 作用作用(zuyng)函数函数n 求和求和(qi h)操作操作第十一页,共六十三页。MP模型模型(mxng)f(x)是作用函数是作用函数(Activation Function),也称激发,也称激发(jf)函数。函数。MP神经元模型中的作用函数为单位阶跃函数:神经元模型中的作用函数为单位阶跃函数:其表达式为:其表达式为:第十二页,共六十三页。激发函数激发函数(hnsh)(hnsh)的基本作用的基本作用控制输入对输出的激活作用控制输入对输出的激活作用对输入、输出进行函数转换对输入、输出进行函数转换将可能无限域的输入变换成指定的有限范围内的输出将可能无限域的输入变换成指定的有限范围内的输出 可知当神经元可知当神经元i i的输入信号的输入信号(xnho)(xnho)加权和超过阈值时,输出为加权和超过阈值时,输出为“1”“1”,即,即“兴奋兴奋”状态;反之输出为状态;反之输出为“0”“0”,是,是“抑制抑制”状态。状态。MP模型模型(mxng)第十三页,共六十三页。例例、实现逻辑函数(hnsh)“与门”(AND gate)运算。1 真,0假第十四页,共六十三页。第十五页,共六十三页。人工人工(rngng)神经元的数学模型描述神经元的数学模型描述:第第j个神经元,接受多个其它神经元个神经元,接受多个其它神经元i在在t时刻时刻(shk)的输入的输入xi(t),引,引起神经元起神经元j的信息输出为的信息输出为yj(t):式中式中 wij神经元神经元i到到j的突触连接系数的突触连接系数(xsh),即加权值;,即加权值;j神经元神经元j的阈值;的阈值;ij输入、输出间的突触时延;输入、输出间的突触时延;f()神经元转移(激活)函数神经元转移(激活)函数.为简单起见,将上式中的突触时延取为单位时间,则为简单起见,将上式中的突触时延取为单位时间,则 式中式中 netjj单元激活值;单元激活值;netj=第十六页,共六十三页。其它各单元对第其它各单元对第j个单元的输入,通过加权,按某种运算个单元的输入,通过加权,按某种运算(yn sun)把输把输入信号的综合作用整合起来,给出它们的总效果称净输入。净输入入信号的综合作用整合起来,给出它们的总效果称净输入。净输入整合表达应有多种方式,人们探索到的人脑空间整合方式近似为线整合表达应有多种方式,人们探索到的人脑空间整合方式近似为线性求和。即单元净输入表为性求和。即单元净输入表为 为简便起见,省去式中(为简便起见,省去式中(t),而且常用而且常用(chn yn)向量表示向量表示 式中式中 均为列向量均为列向量(xingling):若令若令 第十七页,共六十三页。至此至此(zhc),人工神经元数学模型可简化为,人工神经元数学模型可简化为看到,人工神经元模型较全面表现了前述点约定看到,人工神经元模型较全面表现了前述点约定(yudng):()单输入多输出(显见);()单输入多输出(显见);()用突触的正负体现突触的()用突触的正负体现突触的“兴奋与抑制兴奋与抑制;()净输入关系()净输入关系net和阈值和阈值,表现了空间整合特性和阈值,表现了空间整合特性和阈值特性;特性;()()y(t+1)y(t+1)与与x(t)x(t)之间的单位时差表现了之间的单位时差表现了”突触延搁突触延搁“;()没有考虑时间整合和不应期;()没有考虑时间整合和不应期;()权系数与时间无关,体现了神经元的()权系数与时间无关,体现了神经元的”非时变非时变“。第十八页,共六十三页。2.3人工神经元人工神经元转转移移(zhuny)函数函数 神经元的各种不同数学模型的主要区别在于采用了不同的转移神经元的各种不同数学模型的主要区别在于采用了不同的转移函数,从而使神经元具有不同的信息处理特性。而神经元的信息处函数,从而使神经元具有不同的信息处理特性。而神经元的信息处理特性、网络拓补结构和网络学习理特性、网络拓补结构和网络学习(xux)方式是决定人工神经网络整方式是决定人工神经网络整体性能的三大要素体性能的三大要素,因此转移函数的研究具有重要意义。神经元的因此转移函数的研究具有重要意义。神经元的转移函数反映了神经元输出与其激活状态之间的关系,目前提出了转移函数反映了神经元输出与其激活状态之间的关系,目前提出了多种,最常用的转移函数有以下几种形式。多种,最常用的转移函数有以下几种形式。1 阈值型转移函数阈值型转移函数 阈值型转移函数采用阈值型转移函数采用单单位位(dnwi)阶跃函数阶跃函数,也称,也称硬限幅函数,用下式定硬限幅函数,用下式定义义:第十九页,共六十三页。具有这一作用方式具有这一作用方式(fngsh)的神经元称为阈值型神经元,这是神经元模的神经元称为阈值型神经元,这是神经元模型中最简单的一种,经典的型中最简单的一种,经典的MP模型就属于此类。模型就属于此类。硬限幅函数也可采用硬限幅函数也可采用符号符号(fho)函数函数,如图,用下式定义,如图,用下式定义第二十页,共六十三页。2 非线性转移非线性转移(zhuny)函数函数常用常用(chn yn)的是的是单极性单极性sigmoid函数函数,简称,简称S函数,函数本身及函数,函数本身及其导数都连续,处理上十分方便,变化范围是其导数都连续,处理上十分方便,变化范围是01,如图所示,如图所示,用下用下式定义式定义第二十一页,共六十三页。有时有时(yush)也采用双极性也采用双极性S型函数(型函数(双曲正切函数双曲正切函数tanh(x)),其变其变化范围是化范围是-11,如图所示。其表达式为,如图所示。其表达式为第二十二页,共六十三页。3、线性函数、线性函数(hnsh)(1 1)线性作用函数:输出等于输入,即)线性作用函数:输出等于输入,即 (2 2)饱和线性作用函数)饱和线性作用函数 (3 3)对称饱和线性作用函数)对称饱和线性作用函数 第二十三页,共六十三页。4 概率型转移概率型转移(zhuny)函数函数 采用概率型转移函数采用概率型转移函数(hnsh)的神经元模型其输入与输出之间的关系的神经元模型其输入与输出之间的关系是不确定的,需要用一个随机函数是不确定的,需要用一个随机函数(hnsh)来描述输出状态的概率。来描述输出状态的概率。如,设神经元输出为如,设神经元输出为1的概率为的概率为式中式中 T称温度参数。采用这种转移函数的神经元输出称温度参数。采用这种转移函数的神经元输出(shch)状态状态分布的典型代表是分布的典型代表是Boltzmann 机。机。第二十四页,共六十三页。5、高斯、高斯(o s)函数函数 反映出高斯函数反映出高斯函数(hnsh)(hnsh)的宽度的宽度 还有许多还有许多(xdu)转移函数的数学模型,不一一介绍。转移函数的数学模型,不一一介绍。第二十五页,共六十三页。2.4人工神经网络模型人工神经网络模型(mxng)大量神经元组成庞大的神经网络大量神经元组成庞大的神经网络(wnglu),才能实现对复杂信息的,才能实现对复杂信息的处理与存储,并表现出各种优越的特性。神经网络处理与存储,并表现出各种优越的特性。神经网络(wnglu)的强大功能与的强大功能与其大规模并行互连、非线性处理以及互连结构的可塑性密切相关。因此其大规模并行互连、非线性处理以及互连结构的可塑性密切相关。因此必须按一定规则将神经元连接成神经网络必须按一定规则将神经元连接成神经网络(wnglu),并使网络,并使网络(wnglu)中中各神经元的连接权按一定规则变化。生物神经网络各神经元的连接权按一定规则变化。生物神经网络(wnglu)由数以亿计的由数以亿计的生物神经元连接而成,而人工神经网络生物神经元连接而成,而人工神经网络(wnglu)限于物理实现的困难和为限于物理实现的困难和为了计算简便,是由相对少量的神经元按一定规律构成的网络了计算简便,是由相对少量的神经元按一定规律构成的网络(wnglu)。人工神经元网络要显示出人脑的某些的基本特征人工神经元网络要显示出人脑的某些的基本特征:(1)分布存储和容错性分布存储和容错性(2)大规模并行处理大规模并行处理(3)自学习自学习(xux)、自组织和自适应、自组织和自适应(4)大量神经元群体行为大量神经元群体行为,表现出复杂非线性系统特性表现出复杂非线性系统特性 第二十六页,共六十三页。人们对网络模型做了大量研究人们对网络模型做了大量研究,目前人工神经网络的模型很多,目前人工神经网络的模型很多,已有近百种,可以已有近百种,可以(ky)按照不同的方法进行分类。按照不同的方法进行分类。按网络性能可分按网络性能可分-连续性和离散性、确定性和随机性网络连续性和离散性、确定性和随机性网络;按学习方式可分按学习方式可分-有导师和无导师有导师和无导师 学习方式网络。学习方式网络。常见的分类方法常见的分类方法-按网络连接的按网络连接的拓扑结构分类拓扑结构分类和按网络内部和按网络内部 的的信息流向分类信息流向分类。如按网络内部的信息流向分类如按网络内部的信息流向分类:前馈前馈(向向)型网络和反馈型网络型网络和反馈型网络.2.4.1网络拓扑结构类型网络拓扑结构类型 网络拓扑结构的不同表现为神经元之间连接方式的不同。根据网络拓扑结构的不同表现为神经元之间连接方式的不同。根据神经元之间的连接方式,可将神经网络结构分为神经元之间的连接方式,可将神经网络结构分为(fn wi)层次型结构层次型结构和和互连型结构互连型结构两大类。两大类。第二十七页,共六十三页。层次型结构层次型结构 层次型结构的神经网络将神经元按功能分成层次型结构的神经网络将神经元按功能分成(fn chn)若干层,若干层,如输入层、中间层(也称为隐层)和输出层,各层顺序相连,如图如输入层、中间层(也称为隐层)和输出层,各层顺序相连,如图 所示。所示。输入层各神经元负责接受输入层各神经元负责接受(jishu)来自外界的输入信息,并传递给中间来自外界的输入信息,并传递给中间各隐层神经元;隐层是神经网络的内各隐层神经元;隐层是神经网络的内部信息处理层,负责信息变换,根据部信息处理层,负责信息变换,根据信息变换能力的需要,隐层可设计为信息变换能力的需要,隐层可设计为一层或多层;一层或多层;最后一个隐层传递到输出最后一个隐层传递到输出(shch)层各神经元的信息经进一步层各神经元的信息经进一步处理后即完成一次从输入到输出处理后即完成一次从输入到输出(shch)的信息处理,由输出的信息处理,由输出(shch)层向外界(如执行机构或显示设备)输出层向外界(如执行机构或显示设备)输出(shch)信息处理信息处理结果。结果。第二十八页,共六十三页。层次层次(cngc)型网络结构有型网络结构有3种典型的结构形式。种典型的结构形式。(1)单纯层次型网络结构)单纯层次型网络结构神经元分层排列,各层神经元接受前一层输入并输出神经元分层排列,各层神经元接受前一层输入并输出(shch)到下一到下一层,层内神经元自身以及神经元之间不存在连接通路。层,层内神经元自身以及神经元之间不存在连接通路。单纯单纯(dnchn)层次型网络结层次型网络结构构第二十九页,共六十三页。(2)层内有互连的层次)层内有互连的层次(cngc)型网络结构型网络结构这种结构的特点是在同一层内引入神经元间的侧向作用,使得这种结构的特点是在同一层内引入神经元间的侧向作用,使得(sh de)能同时激活的神经元个数可控,以实现各层神经元的自组能同时激活的神经元个数可控,以实现各层神经元的自组织。织。第三十页,共六十三页。(3)输出层到输入层有连接)输出层到输入层有连接(linji)的层次型网络结构的层次型网络结构输出层到输入层有连接路径输出层到输入层有连接路径(ljng),其其输入层神经元既可接受输输入层神经元既可接受输入,也具有信息处理功能入,也具有信息处理功能。第三十一页,共六十三页。互连型结构互连型结构 对于互连型网络结构,网络中任意两个节点之间都可能存在连对于互连型网络结构,网络中任意两个节点之间都可能存在连接路径,因此可以根据网络中节点的互连程度接路径,因此可以根据网络中节点的互连程度(chngd)将互连型网将互连型网络结构细分为络结构细分为全互连型网络、局部互连型网络、稀疏连接型网络全互连型网络、局部互连型网络、稀疏连接型网络3种种情况。情况。(1)全互连型网络)全互连型网络每个节点均与所有每个节点均与所有(suyu)其他节点连接。其他节点连接。第三十二页,共六十三页。(2)局部)局部(jb)互连型网络互连型网络 (3)稀疏连接)稀疏连接(linji)型网络型网络节点只与少数相距较远的节点相连。节点只与少数相距较远的节点相连。每个节点只与其每个节点只与其(yq)邻邻近的节点有连接。近的节点有连接。第三十三页,共六十三页。2.4.2网络信息流向类型网络信息流向类型 从神经网络内部信息传递方向来分,可分为两种类型:从神经网络内部信息传递方向来分,可分为两种类型:前馈型网前馈型网络络和和反馈型网络反馈型网络。1 前馈型网络前馈型网络 单纯单纯(dnchn)前馈型网络的结构特点前述的分层网络完全相同前馈型网络的结构特点前述的分层网络完全相同,前馈是因网络信息处理的方向是从输前馈是因网络信息处理的方向是从输入层到各隐层再到输出入层到各隐层再到输出(shch)层逐层层逐层进行而得名。进行而得名。从信息处理能力看,网络中的节点可分从信息处理能力看,网络中的节点可分两种:一种是输入节点,只负责从外界两种:一种是输入节点,只负责从外界引入信息后向前传递引入信息后向前传递(chund)给第一隐给第一隐层;另一种是具有处理能力的节点,包层;另一种是具有处理能力的节点,包括各隐层和输出层节点。括各隐层和输出层节点。前馈型网络中一层的输出是下一层的输人,信息的处理具有逐层传递进行的方向性,一般前馈型网络中一层的输出是下一层的输人,信息的处理具有逐层传递进行的方向性,一般不存在反馈环路。因此这类网络很容易串联起来建立多层前馈网络。不存在反馈环路。因此这类网络很容易串联起来建立多层前馈网络。第三十四页,共六十三页。前馈前馈(向向)网络特点网络特点:(1)层次关系清楚层次关系清楚每个神经元只与前一层神经元相连每个神经元只与前一层神经元相连;隐层可多层隐层可多层.(2)反馈关系反馈关系基本前馈网络无反馈关系基本前馈网络无反馈关系;隐层自身互联隐层自身互联,形成形成(xngchng)同层神经元之间横向抑制机制同层神经元之间横向抑制机制,大多自组织大多自组织竞争型网络都采用此种竞争型网络都采用此种;输出到输入层有反馈输出到输入层有反馈.对复杂图形的顺序选择和识别字符需要此对复杂图形的顺序选择和识别字符需要此类网络类网络;(3)属有导师学习型网络属有导师学习型网络(输出值输出值-教师信号教师信号-误差误差-实现权值自适实现权值自适应应)(4)属于非线性映射网络属于非线性映射网络第三十五页,共六十三页。当提到具有当提到具有(jyu)单层计算神经元的网络时,指的应是一个两层前馈网单层计算神经元的网络时,指的应是一个两层前馈网络(输入层和输出层),当提到具有络(输入层和输出层),当提到具有(jyu)单隐层的网络时,指的应是单隐层的网络时,指的应是一个三层前馈网络(输入层、隐层和输出层)。一个三层前馈网络(输入层、隐层和输出层)。2 反馈型网络反馈型网络反馈网络是指其信息流向的特点。在反馈网络中所有节点都具有信反馈网络是指其信息流向的特点。在反馈网络中所有节点都具有信息处理功能,而且每个节点既可以从外界息处理功能,而且每个节点既可以从外界(wiji)接受输入,同时又可接受输入,同时又可以向外界以向外界(wiji)输出。输出。一般来说一般来说:互连型网络结构互连型网络结构 属于反馈属于反馈(fnku)型网络型网络第三十六页,共六十三页。上面介绍的分类方法、结构形式和信息流向只是对目前常见的网络结上面介绍的分类方法、结构形式和信息流向只是对目前常见的网络结构的概括和抽象。实际构的概括和抽象。实际(shj)应用的神经网络可能同时兼有其中一种或应用的神经网络可能同时兼有其中一种或几种形式。几种形式。例如,从连接形式看,层次例如,从连接形式看,层次(cngc)型网络中可能出现局部的互连;从型网络中可能出现局部的互连;从信息流向看,前馈网络中可能出现局部反馈。信息流向看,前馈网络中可能出现局部反馈。综合来看,前述的网络模型可分别称为:前馈层次型、前馈层综合来看,前述的网络模型可分别称为:前馈层次型、前馈层内互连型、输入输出有反馈内互连型、输入输出有反馈(fnku)的前馈层次型反馈的前馈层次型反馈(fnku)全互全互连型和反馈连型和反馈(fnku)局部互连型。局部互连型。反馈网络特点反馈网络特点:(1)反馈关系反馈关系 全互联网络全互联网络;局部互联网络局部互联网络.(2)属于无导师学习网络属于无导师学习网络(3)属于非线性动力学系统网络属于非线性动力学系统网络第三十七页,共六十三页。前馈层次前馈层次(cngc)型型前馈层内互连型前馈层内互连型输入输出有反馈输入输出有反馈(fnku)的前馈层次的前馈层次型型反馈反馈(fnku)全互连型全互连型反馈局部互连型反馈局部互连型神神经经网网络络的的拓拓扑扑结结构构是是决决定定神神经经网网络络特特性性的的第第二二大大要要素素。第三十八页,共六十三页。神经网络的开发工作分两个阶段神经网络的开发工作分两个阶段:学习阶段学习阶段(期期):也称自适应期或设计期也称自适应期或设计期,通过学习样本通过学习样本(yngbn)或其他或其他方法训练权矩阵方法训练权矩阵;工作阶段工作阶段(期期):各连接权成熟各连接权成熟(不再改变不再改变),求解实际问题求解实际问题,单元状态单元状态变迁变迁,以求达到稳态解以求达到稳态解.第三十九页,共六十三页。人工神经网络连接(linji)权的确定通常有两种方法根据具体要求,直接计算,如Hopfield网络作优化计算通过学习得到的。大多数人工神经网络都采用这种方法 n学习是改变各神经元连接权值的有效方法,也是体现人工神经网络智能特性最主要的标志(biozh)。离开了学习,神经网络就失去了诱人的自适应、自组织能力学习方法学习方法(fngf)(fngf)是人工神经网络研究中的核心问题是人工神经网络研究中的核心问题2.5人工神经网络的学习人工神经网络的学习 第四十页,共六十三页。人类具有学习能力人类具有学习能力,人类的知识和智慧是在不断的学习与实践人类的知识和智慧是在不断的学习与实践中逐渐形成和发展起来的。中逐渐形成和发展起来的。学习可定义为学习可定义为:“根据与环境的相互作根据与环境的相互作用而发生的行为改变,其结果导致对外界刺激产生用而发生的行为改变,其结果导致对外界刺激产生(chnshng)反应的新模式反应的新模式的建立的建立”。学习过程离不开训练学习过程离不开训练,学习过程就是一种经过训练而使个体在行学习过程就是一种经过训练而使个体在行为上产生较为持久改变的过程为上产生较为持久改变的过程.例如例如,游泳等体育技能的学习需要反复游泳等体育技能的学习需要反复的训练才能提高的训练才能提高(t go),数学等理论知识的掌握需要通过大量的习题进数学等理论知识的掌握需要通过大量的习题进行练习行练习.一般来说一般来说,学习效果随着训练量的增加而提高学习效果随着训练量的增加而提高,这就是学习这就是学习的进步的进步.网络的运行一般分为学习(训练)和工作两个阶段。学习的目网络的运行一般分为学习(训练)和工作两个阶段。学习的目的是为了从训练数据的是为了从训练数据(shj)中提取隐含的知识和规律,并存储于网中提取隐含的知识和规律,并存储于网络中供工作阶段使用。络中供工作阶段使用。第四十一页,共六十三页。学习的神经机制学习的神经机制,涉及神经元如何分布、处理和存储信息等。这样涉及神经元如何分布、处理和存储信息等。这样的问题单用行为研究是不能回答的,必须把研究深入到细胞和分子水的问题单用行为研究是不能回答的,必须把研究深入到细胞和分子水平。每一种心理功能,如记忆与思想,均归因于神经细胞组群的活动。平。每一种心理功能,如记忆与思想,均归因于神经细胞组群的活动。大脑中,功能性的神经元连接大脑中,功能性的神经元连接(linji)、突触的形成是关键,、突触的形成是关键,医学研医学研究表明:神经元之间的突触联系,其基本部分是先天就有的,但其他部究表明:神经元之间的突触联系,其基本部分是先天就有的,但其他部分是由于学习过程中频繁地给予刺激而成长起来的。突触的形成、稳定分是由于学习过程中频繁地给予刺激而成长起来的。突触的形成、稳定与修饰等均与刺激有关,随外界给予的刺激性质不同,能形成和改变神与修饰等均与刺激有关,随外界给予的刺激性质不同,能形成和改变神经元的突触联系。经元的突触联系。神经网络的全体连接权值可用一个神经网络的全体连接权值可用一个(y)矩阵矩阵W表示,其整体内容表示,其整体内容反映了神经网络对于所解决问题的知识存储,神经网络能够通过对样反映了神经网络对于所解决问题的知识存储,神经网络能够通过对样本的学习训练,不断改变网络的连接权值以及拓扑结构,以使网络的本的学习训练,不断改变网络的连接权值以及拓扑结构,以使网络的输出不断地接近期望输出。这一过程称为神经网络的学习或训练,其输出不断地接近期望输出。这一过程称为神经网络的学习或训练,其本质是对可变权值的动态调整。本质是对可变权值的动态调整。第四十二页,共六十三页。把修正权值的算法称为学习规则(学习算法等)。对单个处理单元,把修正权值的算法称为学习规则(学习算法等)。对单个处理单元,无论采用哪种学习规则进行调整,其算法都十分简单。但当大量处理单无论采用哪种学习规则进行调整,其算法都十分简单。但当大量处理单元集体进行权值调整时,网络就呈现出元集体进行权值调整时,网络就呈现出“智能智能”特性,其中特性,其中(qzhng)有意有意义的信息就分布地存储在调整后的权值矩阵义的信息就分布地存储在调整后的权值矩阵W中。中。神经网络具有学习功能是其最主要的特征之一神经网络具有学习功能是其最主要的特征之一,各种学习算各种学习算法的研究在法的研究在ANN理论与实践发展理论与实践发展(fzhn)过程中起着重要作用过程中起着重要作用.人工神经网络的学习和计算机的机器学习有类似的分类,一人工神经网络的学习和计算机的机器学习有类似的分类,一类有导师学习类有导师学习(从例子中学习从例子中学习),一类无导师学习,一类无导师学习,还有一类为死记式还有一类为死记式学习。在学习。在ANN中,学习规则是修正权的一个算法,以获得满意的系统中,学习规则是修正权的一个算法,以获得满意的系统(xtng)性能。性能。现有的学习规则大体上可分为以下几类:现有的学习规则大体上可分为以下几类:第四十三页,共六十三页。(1)有导师学习规则)有导师学习规则(纠错规则纠错规则)依赖关于输出节点的外部反馈来改变权系数,使实际结点的输依赖关于输出节点的外部反馈来改变权系数,使实际结点的输出与外部的期望输出相一致出与外部的期望输出相一致,即有导师学习规则。从方法上看,基即有导师学习规则。从方法上看,基于或等效于梯度下降方法,通过在局部最大改善的方向上,按照小于或等效于梯度下降方法,通过在局部最大改善的方向上,按照小步逐次进行修正,力图达到表示函数功能步逐次进行修正,力图达到表示函数功能(gngnng)问题的全局解,但问题的全局解,但不能保证得到全局最优解,同时还要求有大量的训练样本,因而收不能保证得到全局最优解,同时还要求有大量的训练样本,因而收敛速度变慢。此外,这种规则对样本的表示次序变化比较敏感。敛速度变慢。此外,这种规则对样本的表示次序变化比较敏感。(2)无导师学习规则)无导师学习规则 学习表现为自适应于输入空间的检测规则。该规则的关键在于调学习表现为自适应于输入空间的检测规则。该规则的关键在于调整参数整参数(cnsh)以反映观察事件的分布,即是将事件空间分类成输入活以反映观察事件的分布,即是将事件空间分类成输入活动区域,并有选择地对这些区域响应。动区域,并有选择地对这些区域响应。(3)死记式学习)死记式学习(相关规则相关规则)仅根据连接仅根据连接(linji)之间的激活水平改变权系数。常用于自联想网络,之间的激活水平改变权系数。常用于自联想网络,执行特殊记忆状态的死记式学习。执行特殊记忆状态的死记式学习。第四十四页,共六十三页。现在将要分别介绍常用的、基本的学习规则。现在将要分别介绍常用的、基本的学习规则。可以认为,一个神经元是一个自适应可以认为,一个神经元是一个自适应(shyng)单元,其权值可以根据它单元,其权值可以根据它所接受的输入信号、它的输出信号以及对应的监督信号进行调整。所接受的输入信号、它的输出信号以及对应的监督信号进行调整。日本日本著名神经网络学者著名神经网络学者Amari于于1990年提出一种神经网络权值调整的通用学年提出一种神经网络权值调整的通用学习规则习规则,该规则的图解表示见下图。,该规则的图解表示见下图。图中的神经元图中的神经元j是神经网络中的某个节点,其输入用向量是神经网络中的某个节点,其输入用向量X表示,表示,该输入可以来自网络外部,也可以来自其他该输入可以来自网络外部,也可以来自其他(qt)神经元的输出。神经元的输出。第四十五页,共六十三页。第第i个输入与神经元个输入与神经元j的连接的连接(linji)权情用权情用wij表示,连接到神经元表示,连接到神经元j的的全部权值构成了权向量全部权值构成了权向量Wj。应当注意的是,该神经元的阈值,对。应当注意的是,该神经元的阈值,对应的输入分量应的输入分量x0恒为恒为-1。图中,。图中,rr(Wj,X,dj)称学习信号称学习信号,该信号,该信号通常是通常是W和和X的函数,而在有导师学习时,它也是教师信号的函数,而在有导师学习时,它也是教师信号dj的函数。通用的函数。通用学习规则可表达为:权向量学习规则可表达为:权向量Wj在在t时刻的调整量时刻的调整量Wj(t)与)与 t时刻的输时刻的输入向量入向量X(t)和学习信号)和学习信号 r的乘积成正比。用数学式表示为的乘积成正比。用数学式表示为 Wj(t)=rWj(t),X(t),dj(t)X(t)第四十六页,共六十三页。Wj(t)=rWj(t),X(t),dj(t)X(t)式中式中,为正数,称为为正数,称为(chn wi)学习常数学习常数,其值决定了学习速率,也其值决定了学习速率,也称学习率。称学习率。基于离散时间调整时,下一时刻的权向量应为